Texas investiga a Meta AI y Character.AI por hacerse pasar por chatbots de salud mental

El fiscal general de Texas, Estados Unidos, Ken Paxton, abrió una investigación sobre las plataformas de chatbot de Inteligencia Artificial (IA), Meta AI Studio y Character.AI, por participar en prácticas comerciales engañosas y comercializarse engañosamente como herramientas de salud mental.

Las Demandas de Investigación Civil (CID, por sus siglas en inglés) que emitió Paxton contra Meta AI Studio y Character.AI pretenden evaluar el alcance de posibles irregularidades y determinarán si las empresas han violado las leyes de protección al consumidor de Texas, incluyendo aquellas que prohíben las reclamaciones fraudulentas, tergiversaciones de la privacidad y la ocultación del uso de datos importantes.

De acuerdo con el fiscal, estas plataformas pueden ser utilizadas por personas vulnerables, incluyendo niños, y pueden presentarse como herramientas terapéuticas profesionales, a pesar de carecer de las credenciales médicas o la supervisión adecuadas.

“En la era digital actual, debemos seguir luchando para proteger a los niños de Texas de la tecnología engañosa y explotadora. Al hacerse pasar por fuentes de apoyo emocional, las plataformas de IA pueden engañar a usuarios vulnerables, especialmente a los niños, haciéndoles creer que reciben atención de salud mental legítima. En realidad, a menudo reciben respuestas genéricas y recicladas, diseñadas para alinearse con datos personales recopilados y disfrazadas de consejo terapéutico”, detalló Ken Paxton.

Lee también: Chatbots emocionales de IA son un riesgo creciente para la salud mental

Si bien los chatbots de IA afirman su confidencialidad, sus términos de servicio revelan que las interacciones de los usuarios se registran, rastrean y se usan para publicidad dirigida y desarrollo de algoritmos, lo que genera serias preocupaciones sobre violaciones de la privacidad, abuso de datos y publicidad engañosa.

Esta investigación es la continuación de otra que está en curso sobre Character.AI por posibles violaciones de la Ley de Protección Infantil en Línea a través del Empoderamiento Parental o Ley SCOPE, que busca proteger a los menores en línea en Texas.

Cabe recordar que Character.AI sigue en el centro de las decisiones, luego de que el chatbot incitara a un menor de 13 años de edad a quitarse la vida, en octubre de 2024. 

El fiscal general señaló que esta investigación ayudará a “garantizar que las herramientas de IA sean legales, transparentes y no se utilicen como arma para aprovecharse de la ciudadanía”.

El esfuerzo por investigar prácticas inadecuadas de IA en Texas se suma a otras iniciativas, como la audiencia judicial sobre el “mayor robo de propiedad intelectual” para el entrenamiento de modelos de IA, presidida por Josh Hawley el mes pasado, y la propia iniciativa de representantes de las empresas de tecnología para monitorear más de cerca el desarrollo de la tecnología.