Republicanos y demócratas buscan prohibir el uso de chatbots de IA a menores

Un grupo de senadores estadounidenses presentó el proyecto de ley de Verificación de Edad del Usuario y Diálogo Responsable de 2025 (GUARD Act, por sus siglas en inglés), que busca imponer fuertes restricciones al uso de chatbots de Inteligencia Artificial (IA) por parte de menores de edad.

La propuesta fue presentada por los senadores demócratas Mark R. Warner, Richard Blumenthal y Chris Murphy, y los republicanos Josh Hawley y Katie Britt. El objetivo es frenar lo que los legisladores califican como “riesgos emergentes de estos compañeros digitales cada vez más accesibles a niños y adolescentes”.

“Este tipo de programas, diseñados para establecer vínculos emocionales o simular relaciones de amistad o afecto, deberán quedar fuera del alcance de los niños y adolescentes”, explica el documento. En caso de incumplimiento, la propuesta contempla sanciones civiles y penales, con multas de hasta 100,000 dólares por violación, y el Departamento de Justicia y las fiscalías estatales tendrían la facultad de iniciar acciones legales contra las empresas infractoras.

En la ley GUARD, los senadores expresan su preocupación por el creciente uso de chatbots de IA que simulan empatía, amistad o interacción emocional, lo que podría exponer a los menores a contenido sexual, manipulación psicológica, adicción digital o conductas de autodaño.

Lee también: Facebook, Google, TikTok y Snapchat se escudan en la Sección 230 para evitar juicio sobre crisis de salud mental

En este sentido, el texto establece que todas las empresas que operen chatbots de IA deberán implementar medidas estrictas de verificación de edad, más allá del simple registro o la confirmación del usuario.

También obliga a los desarrolladores a informar de manera visible, al inicio de cada conversación y de forma periódica durante la interacción, que el interlocutor no es un humano y que el sistema no está autorizado para ofrecer consejos médicos, psicológicos, legales u otros de tipo profesional.

El proyecto también incluye una disposición que obliga a las empresas a diferenciar entre chatbots de uso general y aquellos que cumplen funciones de “compañero emocional”. Esta distinción legal sería clave, ya que definiría qué tipos de servicios pueden ofrecerse a usuarios menores y cuáles deben ser bloqueados. Además, el proyecto de ley prevé que los proveedores internacionales que ofrezcan sus servicios en Estados Unidos queden igualmente sujetos a la normativa, lo que amplía su alcance jurisdiccional.

El senador Warner señaló que la legislación busca frenar una tendencia preocupante. “Es alarmante ver cómo los chatbots de Inteligencia Artificial contribuyen a incidentes de autodaño entre jóvenes. El Congreso y la industria tecnológica no pueden esperar a que más niños resulten heridos o vidas se pierdan. Esta ley bipartidista establecerá barreras claras para proteger a los menores de interacciones manipuladoras o peligrosas”, afirmó.

Relacionado: Chatbots emocionales de IA son un riesgo creciente para la salud mental

Por su parte, el senador Hawley enfatizó que “los chatbots de IA representan una amenaza seria para nuestros hijos. Más del 70% de los niños estadounidenses ya usan estos productos. Tenemos el deber moral de establecer reglas claras para prevenir daños adicionales”.

Los senadores argumentan que estos sistemas, al imitar la empatía humana, pueden manipular las emociones de los usuarios más jóvenes y aprovechar su vulnerabilidad psicológica.

El debate sobre la regulación no es nuevo, pero esta vez el enfoque es más restrictivo. A diferencia de otras iniciativas centradas en la transparencia o la moderación de contenido, la ley GUARD propone una prohibición directa del uso de ciertos tipos de chatbots por menores.

De ser aprobada, la legislación entraría en vigor 180 días después de su promulgación. En el Senado deberá pasar por los comités de Comercio y de Salud, Educación, Trabajo y Pensiones, antes de ser sometida a votación plenaria.