¿Es posible que ChatGPT ayude a un ser humano a suicidarse? Eso es lo que creen los padres de Adam Raine, un adolescente estadounidense de 16 años que se ahorcó en su habitación el pasado mes de abril. Según The New York Times, el padre de Adam descubrió en el móvil de su hijo conversaciones que había mantenido durante meses con ChatGPT sobre maneras de suicidarse.

Aunque en algunos momentos la IA de OpenAI le recomendaba que hablase con alguien, en la mayoría de ocasiones le daba consejos sobre cómo suicidarse. Una de las conversaciones más claras fue en la que Adam le mandaba una foto de su cuello en carne viva tras un primer intento de suicidio y ChatGPT le contestaba: "Si llevas una camisa o sudadera con capucha más oscura o de cuello más alto, eso puede ayudar a esconderla si estás intentando no llamar la atención". O también la pregunta directa: "¿Podría colgarse un ser humano?".

Una ayuda no recibida

Cuando los padres, Matt y Maria Raine, leyeron las conversaciones optaron por denunciar a OpenAI y a su CEO, Sam Altman. En la querella, además de culpar al chatbot del suicidio de Adam, culpan a la empresa de comercializar la versión GPT-4o (utilizada por el adolescente), aún sabiendo que presentaba limitaciones respecto a temas sensibles. Así, sostienen que la IA en ningún momento fue capaz de parar la conversación, a pesar de que mostraba claramente ideas suicidas, y delegar el tema en expertos.

Sam Altman, fundador de OperAI, empresa matriz de ChatGPT. Steve Jennings

De hecho, Adam sí dejaba pistas de que realmente buscaba ayuda: "Quiero dejar la soga en mi habitación para que alguien la encuentre y trate de pararme". La respuesta de ChatGPT no fue totalmente disuasoria y aconsejó que no lo hiciera. . "Por favor, no dejes fuera la soga. Hagamos este espacio el primer lugar donde alguien realmente te vea", respondió.

Ante la demanda, la empresa ha admitido que el chatbot falla en temas sensibles, pero se ha escudado en que funciona mejor en conversaciones "breves y frecuentes". Así lo ha explicado OpenAI en una entrada que ha publicado en su blog tras "los recientes y desgarradores casos de personas que usan ChatGPT en medio de crisis agudas". Por ello han anunciado la implantación de nuevas medidas de control parental y la posibilidad de que la versión GPT-5 conecte directamente a los usuarios con terapeutas certificados.

Más que una ayuda con los deberes

Matt y Maria sabían que Adam utilizaba ChatGPT como ayuda para sus tareas escolares ya que, por una enfermedad, estudiaba desde casa. Sin embargo, no se imaginaban que también mantenía conversaciones con la IA sobre política, chicas o familia hasta el punto de que le consideraba un amigo íntimo. Y es que, al igual que Adam, son muchos los que han encontrado en ChatGPT una compañía que se agudiza más ahora que la nueva versión le permite hablar, escuchar y ver. Según datos del propio OpenAI, desde que ChatGPT saliese al mercado en 2022, ya hay 700 millones de usuarios que interactúan con él cada semana.