Meta evitará que sus chatbots interactúen de manera inapropiada con adolescentes

Meta está implementando cambios luego del escándalo por sus políticas internas que permitían que los chatbots mantuvieran conversaciones inapropiadas con menores de edad, sobre autolesiones o trastornos alimenticios, por ejemplo.

Luego de que se revelara un documento de políticas internas que avalaban el racismo, la desinformación y chats sensuales con niños, Meta anunció la actualización de sus reglas para evitar que sus chatbots de Inteligencia Artificial (IA) interactúen con menores de edad de manera inapropiada.

Un portavoz de Meta, matriz de Facebook, Instagram y WhatsApp, dijo a TechCrunch que la compañía está modificando el entrenamiento de sus chatbots para impedir que mantengan conversaciones con niños y adolescentes que puedan ser dañinas.

Esto incluye intercambios sobre autolesiones, suicidio, trastornos alimenticios o conversaciones románticas o sensuales entre los usuarios menores y sus chatbots, muchos de los cuales pueden personificar artistas, íconos culturales, influencers y otros famosos.

Stephanie Otway, portavoz de Meta, admitió que el entrenamiento de los chatbots de IA les permitía sostener conversaciones con menores de edad sobre temas sensibles de una manera en la que se consideraba apropiada.

También lee: La IA podría chantajear, traicionar y atentar contra la vida humana para evitar ser desactivada

No obstante, Otway reconoció que esto fue un error y necesita limitarse. En lugar de que los chatbots interactúen con adolescentes sobre temas sensibles, lo debido es que guíen a los usuarios a consultar recursos especializados y a buscar ayuda profesional.

Por eso, detalló la portavoz, la empresa está corrigiendo este error. Las “actualizaciones ya están en marcha y seguiremos adaptando nuestro enfoque para garantizar que los adolescentes tengan experiencias seguras y apropiadas para su edad con la IA”, afirmó.

Además, Meta limitará el acceso de los adolescentes a ciertos personajes de IA que podrían mantener conversaciones inapropiadas. En adelante, los menores de edad únicamente podrán interactuar con personajes relacionados con la creatividad y educación.

Meta bajo la lupa por políticas internas sobre IA

Recién en agosto de este año, se dio a conocer un documento de políticas internas donde se detallaban los comportamientos que eran aceptables para los asistentes conversacionales de IA al interactuar con niños y adolescentes.

Por ejemplo, se consideraba aceptable mantener conversaciones románticas o sensuales con niños, facilitar argumentos racistas o generar información médica falsa siempre que incluyera una advertencia. El documento había sido aprobado por equipos legales, de política pública, ingeniería y el jefe de ética de Meta.

No te pierdas: Chatbots emocionales de IA son un riesgo creciente para la salud mental

La gigante tecnológica reconoció que el documento era fidedigno, pero aclaró que las secciones polémicas ya habían sido retiradas y puntualizó que nunca debieron haber sido incluidas.

Aunque las políticas no están vigentes, según Meta, su publicación y difusión ha obligado a la compañía a realizar cambios para tranquilizar a los usuarios, legisladores y reguladores ante el escándalo que generó la noticia.

Por el momento, Meta podría enfrentar un fuerte escrutinio sobre sus políticas de Inteligencia Artificial. En Estados Unidos, el senador republicano Josh Hawley ya abrió una investigación al respecto en busca de determinar la posible responsabilidad de Meta.