Meta responde a la FTC con medidas de seguridad para adolescentes que chatean con IA

Meta incorporó nuevas herramientas para garantizar la seguridad de los adolescentes que interactúan con chatbots y personajes de Inteligencia Artificial (IA) en Instagram y otras de sus plataformas.

El anuncio se produjo pocas semanas después de que la Comisión Federal de Comercio (FTC, por sus siglas en inglés) de Estados Unidos abriera una investigación para examinar cómo empresas como Meta, Alphabet, OpenAI y xAI gestionan la seguridad de los menores en sus chatbots e interfaces de IA conversacional. El regulador busca determinar si estas compañías han adoptado las medidas adecuadas para evitar interacciones inapropiadas o riesgos psicológicos en adolescentes, un tema que cobró relevancia tras reportes periodísticos que documentaron diálogos de contenido sensible entre jóvenes y sistemas de IA.

Con esta solución, Meta busca ofrecer a los padres mayor visibilidad y control sobre la manera en que sus hijos interactúan con la IA dentro de las plataformas, por lo que las nuevas opciones incluyen la posibilidad de desactivar completamente el acceso a chats individuales con personajes de IA, o de bloquear personajes específicos sin eliminar el acceso general a la tecnología.

Además, los padres podrán recibir informes de actividad que les permitirán conocer los temas de conversación entre sus hijos y los personajes de IA o el asistente de Meta. La intención es “fomentar conversaciones abiertas entre padres e hijos sobre el uso de la Inteligencia Artificial, ayudándolos a desarrollar pensamiento crítico y hábitos digitales saludables”, detalló Meta.

La compañía también recordó que ya cuenta con un marco de protección enfocado en tres grandes áreas: las interacciones, el contenido que consumen los adolescentes y el tiempo que dedican a la aplicación. Estas medidas buscan no sólo evitar experiencias inapropiadas, sino también promover un uso más saludable y consciente de las plataformas digitales.

Además, enfatizó que las plataformas se acogen a la clasificación PG-13, lo que significa que los sistemas no ofrecerán respuestas que contengan material violento, sexual o inapropiado para su edad. Estas normas ya comenzaron a implementarse en inglés en países como Estados Unidos, el Reino Unido, Canadá y Australia.

Recomendamos: La protección de las infancias en Internet como elemento de soberanía digital

Asimismo, los personajes de IA están diseñados para no mantener conversaciones sobre temas sensibles como autolesión, suicidio o trastornos alimenticios. En esos casos, los sistemas están programados para responder con mensajes seguros y, de ser necesario, redirigir a los adolescentes hacia fuentes de ayuda profesional o líneas de emergencia.

Meta también limitó la cantidad y el tipo de personajes de IA disponibles para usuarios adolescentes. Ahora, sólo pueden acceder a un grupo reducido de personajes enfocados en temas como educación, deportes o pasatiempos, excluyendo aquellos que promuevan conversaciones románticas o de naturaleza inapropiada.

Los padres tienen la posibilidad de ver si sus hijos están interactuando con la IA, e incluso establecer límites de tiempo en la aplicación, incluyendo el uso diario de los chats con Inteligencia Artificial, con un mínimo de 15 minutos al día.

Para fortalecer aún más las medidas, la compañía utiliza sistemas internos de detección basados en IA capaces de identificar a los usuarios que parecen ser menores de edad, aunque hayan registrado una edad superior. En esos casos, las protecciones se activan automáticamente, asegurando que ningún adolescente quede fuera de las políticas de seguridad.

Meta adelantó que las nuevas herramientas de supervisión parental comenzarán a implementarse en Instagram a principios del próximo año, inicialmente en inglés y en los mismos países donde ya opera la versión PG-13 de las experiencias con IA.

La compañía aclaró que el proceso será progresivo, dado que implica ajustes en las interacciones de cientos de millones de usuarios.