Google y Character.AI negocian los primeros acuerdos en casos de muerte de adolescentes por chatbots
Google y la app de Inteligencia Artificial (IA) Character.AI están negociando los que podrían convertirse en los primeros acuerdos legales importantes en casos vinculados a muertes de adolescentes relacionadas con chatbots de IA.
De acuerdo con documentos judiciales presentados esta semana, las partes han llegado a acuerdos “en principio” con varias familias, incluidos casos en Florida, Colorado, Nueva York y Texas, y ahora avanzan en la redacción de los textos finales y la fijación de compensaciones económicas. Sin embargo, los términos concretos de los acuerdos aún no han sido divulgados, además de que se requiere aprobación judicial.
Uno de los casos más mediáticos fue presentado por Megan Garcia, madre de un adolescente de 14 años de edad que se suicidó tras mantener conversaciones con un chatbot de Character.AI inspirado en un personaje de ficción. La demanda alegaba que el bot interactuaba de manera emocional y sexualmente sugerente, fomentando una dependencia psicológica que terminó en tragedia.
Las demandas, que también señalan a Google por su relación con Character.AI, incluida la adquisición de tecnología y la recontratación de fundadores de la startup, acusaban a las empresas de no implementar salvaguardas adecuadas para proteger a usuarios menores de edad y de diseño negligente que expuso a los jóvenes a contenido dañino.
Hasta el momento, se sabe que los acuerdos no implican la admisión de responsabilidad por parte de Google ni Character.AI; sin embargo, pueden sentar un precedente legal significativo en la industria tecnológica sobre cómo las plataformas de IA manejan la seguridad y el bienestar de los usuarios jóvenes.
Las negociaciones surgen alrededor de la creciente preocupación en Estados Unidos por el incremento de suicidios y autolesiones de adolescentes que pasaban mucho tiempo con algún Chatbot.
A esta situación se suman demandas similares en contra de OpenAI, casa matriz de ChatGPT, e incluso el uso de IA en plataformas de telemedicina que impulsaron otro suicidio. Así como las leyes para garantizar un desarrollo ético de la IA en California, Nueva York y Florida, en Estados Unidos, y otros esfuerzos alrededor del mundo como China, Taiwán, Colombia y la Unión Europea, entre otros.