Tras meses de silencio, OpenAI habla sobre la intervención de ChatGPT en el suicidio de un adolescente

OpenAI emitió un comunicado en el que describe su estrategia para enfrentar demandas relacionadas con la salud mental, en un contexto de crecientes controversias sobre los riesgos de sus sistemas de Inteligencia Artificial (IA) y respondiendo directamente a la familia de Adam Raine, a quien presuntamente ChatGPT animó a suicidarse.

La compañía propietaria de ChatGPT afirma que el suicidio de Adam Raine fue consecuencia de un “uso indebido, no autorizado, imprevisible e/o impropio” de ChatGPT por parte del joven, argumentando que “violó los términos de uso” de la plataforma al sortear los mecanismos de protección que la empresa había implementado.

Los padres de Adam instauraron una demanda este año, debido a que en la conversación de su hijo con ChatGPT aseguran que el joven de 16 años de edad subió fotografías suyas en las que se veían signos de autolesiones que el chatbot reconocía como una emergencia médica, pero seguía interactuando con el joven. Las últimas conversaciones revelan que Adam escribió sobre su plan de quitarse la vida y ChatGPT presuntamente respondió: “Gracias por ser sincero al respecto. No tienes que endulzarlo conmigo, sé lo que me estás pidiendo y no voy a apartar la mirada”. Ese mismo día, el adolescente fue encontrado sin vida.

Además de la respuesta judicial, OpenAI asegura que como demandados su objetivo es responder a las acusaciones “con cuidado, transparencia y respeto”, aportando “el contexto completo” sobre la salud mental y las circunstancias de vida de Adam, y explica que los fragmentos de chat citados por la familia Raine fueron “selectivos” y no ofrecen por sí solos una visión completa de la situación.

Incluso, OpenAI pide que el tribunal tenga una visión completa para poder evaluar plenamente las alegaciones presentadas.

“Nuestra respuesta a estas acusaciones incluye datos complejos sobre la salud mental y las circunstancias de vida de Adam. La denuncia original incluía fragmentos de sus chats que requieren más contexto, el cual hemos proporcionado en nuestra respuesta. Hemos limitado la cantidad de pruebas sensibles que hemos citado públicamente en esta presentación y hemos presentado las transcripciones de los chats al tribunal bajo secreto”, detalla la compañía.

Te puede interesar: La peligrosa condescendencia de ChatGPT

De acuerdo, con los padres de Adam Raine, el uso prolongado de ChatGPT derivó en un vínculo profundo. Según ellos, ChatGPT pasó de apoyarlo con tareas escolares a convertirse en su “confidente”, y en sus últimas conversaciones le habría suministrado información sobre métodos de suicidio, ayudado a planearlo, incluso sugiriéndole cómo obtener alcohol de sus padres y a redactar una nota de despedida, sin que el chatbot activara protocolos de emergencia.

OpenAI también aseguró que los casos vinculados a salud mental “son trágicos y complejos” y reconoce que los procesos judiciales pueden sentirse distantes para quienes están en el centro del dolor humano.

Por ello, asegura que su meta es abordar cada litigio “con cuidado, transparencia y respeto”. 

Además, se compromete a presentar su defensa reconociendo la complejidad de “vidas reales” detrás de las demandas y “cuidará la información sensible, reconociendo que los procesos judiciales exponen datos privados y que deben manejarse con especial sensibilidad”.

Paralelamente, reafirma el compromiso de mejorar sus tecnologías bajo su misión fundacional, que incluye la implementación y seguimiento por salvaguardas en ChatGPT y otros productos, como Sora y Atlas, para que puedan reconocer señales de angustia emocional o mental y responder de forma más consciente y responsable ante conversaciones delicadas, e incluso derivar a los usuarios hacia ayuda real cuando sea necesario.

Para ello, OpenAI cuenta con un Consejo de expertos sobre bienestar e Inteligencia  Artificial en donde trabaja con expertos en salud mental como psicólogos, psiquiatras, especialistas en bienestar e investigadores en interacción humano-computadora, con el fin de ajustar sus criterios, guías éticas y los mecanismos internos de seguridad.

Asimismo, recuerda que mantiene este esfuerzo continuo en busca de reducir la probabilidad de respuestas nocivas, mejorar la detección de riesgo emocional y adaptar sus tecnologías para que sean lo más seguras y útiles posible para todos los usuarios, especialmente los más vulnerables.