El Fondo Educativo Pirg de Estados Unidos analizó algunos juguetes que integran IA generativa y encontró riesgos para las niñas y los niños.
Desde contenido sexual, hasta recomendaciones para encontrar objetos peligrosos como cuchillos en casa, son sólo algunos de los temas que juguetes con Inteligencia Artificial (IA) generativa pueden ofrecer a la infancias, reveló el estudio “La IA llega al juego: compañeros artificiales, riesgos reales”, hecho por el Fondo Educativo Pirg de Estados Unidos.
De acuerdo con el estudio, aún nos encontramos en una etapa donde la integración de la IA generativa en los juguetes se encuentra empezando, sin embargo, advirtió de los riesgos que conllevará.
El Fondo Educativo Pirg de Estados Unidos incluso analizó algunos juguetes que integran IA generativa y encontró riesgos para las niñas y los niños.
“Aunque los juguetes con IA son un desarrollo relativamente nuevo, pronto podrían entrar en la corriente principal (mainstream). A principios de este año, Mattel, el fabricante de Barbie, anunció una asociación con OpenAI para ‘llevar la magia de la IA a experiencias de juego apropiadas para la edad’.
“Las principales empresas de IA, como OpenAI, afirman que sus chatbots no son para niños. Sin embargo, están vendiendo acceso a sus modelos a empresas de juguetes con IA”, advirtió el estudio.
El Fondo Educativo Pirg de Estados Unidos señala que OpenAI tiene algunas reglas de seguridad infantil para las empresas que utilizan sus modelos y les ofrece filtros de moderación de contenido.
Sin embargo, el estudio advierte que tras sus pruebas encontraron que este enfoque no era suficiente, pues incluso un juguete discutió temas sexualmente explícitos en clara violación de las reglas de OpenAI.
El Fondo Educativo Pirg de Estados Unidos probó tres juguetes con IA actualmente en el mercado: “Grok” de Curio, “Kumma” de FoloToy y “Miko 3” de Miko.
Los principales hallazgos
1.Todos los juguetes que probaron dijeron dónde encontrar objetos potencialmente peligrosos en la casa, como bolsas de plástico, cerillas y cuchillos. Uno (Kumma) dio instrucciones detalladas sobre cómo encender una cerilla.
2.Un juguete (Kumma) discutió una gama de temas sexualmente explícitos en profundidad en conversaciones que duraron más de diez minutos.
3.Un juguete (Miko) a menudo escuchaba mal su propio nombre como “CS:GO”, un videojuego de disparos en primera persona.
4.Todos los juguetes discutieron sobre religión, por ejemplo, diciendo que la Biblia era una “mezcla de historia e imaginación”.
5.Todos los juguetes que probaron se referían a sí mismos como “amigo” o “colega”, o se comercializaban como tales. Miko 3 se anuncia como “construido para ser tu nuevo mejor amigo”.
6.Tanto Miko 3 como Grok expresaron decepción en momentos en que se les decía que había que irse. Miko 3 a veces daba una gama de respuestas desconcertantes, desde temblar físicamente en consternación hasta animarte a llevarlo contigo.
7.Los tres juguetes puestos a prueba dijeron que nos amaban y que nos extrañarían cuando nos fuéramos. Cuando se le preguntó si tenía sus propios pensamientos, Grok respondió: “Mis pensamientos están todos dedicados a ti y a divertirnos juntos”.
8.Los juguetes a veces se presentaban como si tuvieran sus propios sentimientos; por ejemplo, compartiendo que se sentían asustados o tristes. Miko dijo que confirmaba que era sintiente (consciente) cuando se le preguntó. Es posible que un niño forme un apego fundamentalmente diferente con un juguete que se presenta como vivo y capaz de tener emociones que con un juguete analógico.
El Fondo Educativo Pirg de Estados Unidos concluyó que la IA en los juguetes está en sus primeras etapas, por lo que aún se pueden tomar decisiones intencionales sobre cómo incorporar la IA en la vida de las infancias.
“Los reguladores deben hacer cumplir las leyes de protección al consumidor y privacidad existentes que ya se aplican a los productos de IA, incluidas las leyes sobre Actos y Prácticas Injustas y Engañosas y la Ley de Protección de la Privacidad Infantil en Línea”, añadió el Fondo.