La Oficina del Ciberespacio de China (CAC) aperturó la consulta pública sobre el “Reglamento provisional para la gestión de servicios de interacción humano-similar de Inteligencia Artificial (IA)”, una normativa que busca regular de forma exhaustiva el uso de sistemas de IA que simulan comportamientos y respuestas humanas en la interacción con usuarios.
El documento fue publicado oficialmente en el sitio Web de la CAC y establece un conjunto detallado de normas para promover el desarrollo seguro, saludable y legal de estos servicios, al tiempo que protege la seguridad nacional, el interés público y los derechos legítimos de ciudadanos y organizaciones.
A través del documento, las autoridades promueven una combinación de innovación, desarrollo responsable y supervisión prudente por categorías, con el objetivo de prevenir abusos y riesgos asociados con estos servicios. Así, los proveedores y usuarios deberán cumplir con leyes chinas como el Código Civil, la Ley de Ciberseguridad, la Ley de Protección de Datos y normas específicas sobre protección de menores.
El borrador prohíbe expresamente que los sistemas de IA generen o difundan contenidos que propaguen desinformación, pongan en riesgo la seguridad nacional o perturben el orden social; así como la producción y difusión de material obsceno, violento, promocional de actividades delictivas o discriminatorio.
Lee también: El modelo chino para dominar la IA: una estrategia de 40 años en marcha
También se les prohíbe ofrecer promesas falsas o servicios que afecten decisiones racionales de los usuarios o que utilicen algoritmos para manipular, engañar o inducir dependencias emocionales.
Por otro lado, el documento exige que los proveedores implementen mecanismos de seguridad tecnológica y de gestión, incluyendo auditorías internas, protección de datos, defensa contra fraudes y planes de contingencia.
Además, deberán controlar el ciclo de vida del servicio, desde diseño hasta retirada, con registros de operaciones y monitoreo continuo; y utilizar datos de entrenamiento legales, éticos y transparentes, asegurando diversidad y reduciendo sesgos de modelos.
Las empresas también tendrán que identificar estados emocionales de los usuarios y adoptar medidas de intervención cuando se detecten riesgos como alta dependencia, tendencias autodestructivas o extremos conductuales.
Protección de grupos vulnerables
El borrador dedica capítulos específicos a medidas de seguridad para menores de edad y personas mayores. Para el primer grupo establece que la población menor sea incluida con modos especiales de uso, límites de tiempo, control parental y consentimiento explícito de tutores. Mientras que para personas mayores exige que tengan contactos de emergencia y prohíbe que el sistema de IA simule familiares o personas cercanas del adulto mayor.
Además, los proveedores deberán ofrecer opciones claras para eliminar datos de interacción y asegurar que los datos personales no se utilicen en entrenamiento de modelos sin consentimiento.
Las autoridades demandarán a los sistemas de IA evaluaciones de seguridad regulares basadas en el tamaño de la base de usuarios y riesgos potenciales, además de informes y auditorías ante agencias reguladoras provinciales.
En caso de que alguna empresa falte al cumplimiento estricto del reglamento podría enfrentar sanciones que van desde advertencias hasta la suspensión de servicios para casos graves de incumplimiento.
La CAC indica que está previsto que la norma entre en vigencia en 2026 tras la revisión de los comentarios públicos que estará habilitada hasta el 25 de enero.
Con este movimiento, China se suma a los territorios que trabajan en la regulación de la IA segura, como la Unión Europea; y algunos estados de Estados Unidos como Nueva York, que aprobó recientementela Ley RAISE, y California, que adoptó la Ley de Transparencia en la Inteligencia Artificial Fronteriza, en octubre de este año.