Gobiernos en alerta por los posibles riesgos de la IA

Gobiernos alrededor del mundo han comenzado a evaluar los riesgos traídos por las aplicaciones de chatbots impulsados por Inteligencia Artificial (IA) generativa, al considerar que pueden causar peligros como desinformación, brechas a la privacidad o hasta desequilibrar a los propios gobiernos.

Estados Unidos, China y la Unión Europea han iniciado por separado procesos para evaluar la posible introducción de nuevas normas y reglamentaciones para el desarrollo y uso de herramientas basadas en IA, en tanto estas aplicaciones podrían crear nuevos riesgos para la privacidad de los usuarios, o potenciar algunos como la discriminación contra ciertas minorías.

El gobierno de los Estados Unidos, a través de la Administración Nacional de Telecomunicaciones e Informática (NTIA) del Departamento de Comercio, lanzó una nueva consulta pública “para avanzar en sus esfuerzos para garantizar que los sistemas de IA funcionen como se afirma, y sin causar daño”.

Las herramientas de IA generativa, tales como ChatGPT y stability.ai, se han convertido en las aplicaciones de consumidor de más rápida adopción en la historia, luego de que ChatGPT de OpenAI llegara a los primeros 100 millones de usuarios a tan solo dos meses de su lanzamiento.

Esta rápida adopción y desarrollo de la tecnología ha provocado ciertas preocupaciones a los gobiernos respecto a las implicaciones de su uso generalizado sin la correcta evaluación de los riesgos actuales como la privacidad y la desinformación, así como otros que pudieran surgir por la introducción de sistemas cada vez más poderosos.

Las empresas tienen la responsabilidad de asegurarse de que sus productos de IA sean seguros antes de ponerlos a disposición. Las empresas y los consumidores que utilizan tecnologías de IA y las personas cuyas vidas y medios de subsistencia se ven afectados por estos sistemas tienen derecho a saber que han sido investigados adecuadamente y que los riesgos se han mitigado adecuadamente”, señala la NTIA.

En ese sentido, la “Solicitud de comentarios sobre la política de responsabilidad de la IA” de la NTIA busca retroalimentación de la industria e interesados sobre qué políticas pueden respaldar el desarrollo de auditorías, evaluaciones, certificaciones y otros mecanismos para generar confianza en los sistemas de IA.

Por ejemplo, qué tipo de procesos de confianza y seguridad deberían utilizar las compañías encargadas del desarrollo de sistemas de IA, qué tipo de datos deberían ser públicos para llevar a cabo estas auditorías, cómo incentivar la introducción de garantías creíbles a los sistemas de IA, o análisis específicos que deban realizarse a sistemas de IA utilizados en sectores sensibles como empleo y salud.

El gobierno italiano ha sido uno de los primeros en implementar medidas para contener los riesgos de la IA. La semana pasada, la Autoridad para la Protección de Datos Personales (GPDP, por sus siglas en italiano) anunció que impuso una limitación temporal inmediata al procesamiento de los datos de los usuarios italianos por parte de OpenAI, compañía estadounidense que desarrolla ChatGPT.

En el continente europeo, España y Francia también iniciaron sus propios procesos de investigación por posibles amenazas a la privacidad de parte de los sistemas de IA. La agencia de protección de datos de España solicitó que el tema de ChatGPT sea incluido en la agenda de la próxima reunión del Comité Europeo de Protección de Datos, al considerar que se requiere de un enfoque armonizado para su regulación.

“La agencia entiende que las operaciones de procesamiento global que pueden tener un impacto significativo en los derechos de las personas requieren decisiones coordinadas a nivel europeo“, dijo un portavoz de la agencia en un comunicado, según cita Reuters.

La agencia de privacidad de datos de Francia inició también un proceso por separado para investigar múltiples quejas alrededor del tratamiento de datos por parte de ChatGPT.

Por su parte, el gobierno de China anunció también la posible introducción de una nueva regulación para contener los riesgos de los servicios de AI generativa. La propuesta de regulación estará abierta a comentarios hasta el próximo 10 de mayo, por lo que posiblemente entre en vigor este mismo año.

El borrador publicado incluye la introducción de una evaluación de seguridad previa antes del lanzamiento oficial de estos servicios, la garantía del uso legítimo de los datos utilizados para el entrenamiento de los sistemas de IA, la obligación de los usuarios para presentar su identidad real cuando usen estos sistemas, así como medidas para prevenir la discriminación.

La Autoridad de Ciberseguridad de China dijo que el país apoya la innovación y la aplicación de IA y fomenta el uso de software, herramientas y recursos de datos seguros y confiables, pero el contenido generado por IA generativa debe estar en línea con los valores socialistas centrales del país, según señala Reuters.

La autoridad señala que los proveedores que fallen en el cumplimiento de esta nueva regulación podrían ser suspendidos, hacerse acreedores a multas, o hasta enfrentar cargos criminales.

Anteriormente, un grupo de empresarios y conocidos desarrolladores de tecnología, liderados por Elon Musk y Steve Wozniak, lanzaron una carta pública para pedir una pausa al desarrollo de los sistemas de Inteligencia Artificial que permitiera la evaluación de protocolos y regulaciones para un uso seguro de la tecnología.