Unión Europea acuerda primera ley regional de Inteligencia Artificial
Tras dos años de debate, la Unión Europea finalmente logró un acuerdo sobre su primera regulación de Inteligencia Artificial, que espera se convierta en un estándar global.
Tal como se venía perfilando, la Unión Europea (UE) aprobó la primera regulación supranacional sobre Inteligencia Artificial (IA) en el mundo: la Ley de IA, cuyo objetivo es asegurar que los sistemas que se desplieguen y usen en la región sean seguros y respeten los derechos fundamentales y los ‘valores europeos’.
Tras unas ‘discusiones maratónicas’ que se extendieron a lo largo de tres días, la madrugada del sábado 9 de diciembre, la presidencia del Consejo y el Parlamento Europeo alcanzaron un acuerdo provisional sobre las reglas armonizadas contenidas en la Ley de Inteligencia Artificial, que también se ha propuesto estimular la inversión e innovación en IA en Europa.
Otros de sus objetivos son reforzar la gobernanza y el efectivo reforzamiento de la legislación existente sobre derechos fundamentales y seguridad y facilitar el desarrollo de un mercado único para las aplicaciones de IA.
“Este es un logro histórico y un gran hito hacia el futuro. El acuerdo de hoy aborda efectivamente un desafío global en el ambiente tecnológico de acelerada evolución en un área clave para el futuro de nuestras sociedades y economías”, declaró Carme Artigas, secretaria de Estado para la digitalización y la Inteligencia Artificial de España.
El comisario Europeo de Mercado Interior, Thierry Breton, calificó el acuerdo de ‘histórico’, ya que, según dijo, la Unión Europea se convirtió en ‘el primer continente en establecer reglas clara para el uso de IA’ y aseguró que “es mucho más que un libro de reglas: una plataforma de lanzamiento para que las nuevas empresas y los investigadores de la UE lideren la carrera mundial de la IA”.
De acuerdo con la Unión Europea, la Ley de IA es una iniciativa insignia con el potencial de impulsar el desarrollo de una Inteligencia Artificial segura y confiable por actores públicos y privados en el mercado europeo.
Su visión es regular la Inteligencia Artificial fundado en su capacidad de causar daño para la sociedad desde un ‘enfoque basado en riesgos’: desde su perspectiva, a medida que el riesgo sea más alto, las reglas deben ser más estrictas.
Y aseguró que, como la primera propuesta legislativa de su tipo en el mundo, puede establecer un estándar global para la regulación de la IA, como lo ha hecho su ley de protección de la privacidad, el Reglamento General de Protección de Datos (GDPR, por sus siglas en inglés), además de promover el enfoque europeo a la regulación tecnológica en el escenario mundial.
Ley Europea de Inteligencia Artificial
La Comisión propuso el primer borrador de la Ley el 13 de abril de 2021 y desde entonces se llevaron a cabo dos grandes debates. La versión final de la ley está dividida en 12 títulos. El conjunto que contiene el acuerdo provisional incluye los siguientes elementos:
- Reglas sobre modelos de Inteligencia Artificial de alto impacto que pueden causar un riesgo sistémico en el futuro.
- Un sistema revisado de gobernanza con algunos poderes de refuerzo a nivel europeo.
- Extensión de la lista de prohibiciones pero con la posibilidad de usar identificación biométrica remota por las autoridades encargadas de hacer cumplir la ley.
- Una mejor protección de los derechos a través de la obligación de los desarrolladores de sistemas de alto riesgo para conducir una evaluación del impacto en los derechos fundamentales antes de poner cualquier sistema de IA en uso.
Posteriormente, el 6 de diciembre de 2022, el Consejo alcanzó un acuerdo sobre una orientación general (mandato de negociación) sobre el expediente de la ley y entabló conversaciones interinstitucionales con el Parlamento Europeo (diálogos tripartitos) a mediados de junio de 2023.
Previamente, el 25 de mayo de 2023, el Congreso de Perú aprobó un proyecto de ley y, poco más de un mes después, promulgó la Ley Nº 31814, “que promueve el uso de la Inteligencia Artificial en favor del Desarrollo Económico y Social del país”. Se trata de una escueta ley de tan sólo dos capítulos y cinco artículos basada en seis principios para el desarrollo y uso de la IA: estándares de seguridad basados en riesgos, enfoque de pluralidad de participantes, gobernanza de Internet, sociedad digital, ética y privacidad.
La ley define como objeto promover el uso de la IA privilegiando a la persona y el respeto de los derechos humanos; declara de interés nacional la promoción del talento digital y el fomento de la IA para mejorar los servicios públicos y diversos sectores, como la salud, la justicia, la seguridad y la economía.
También, que la Presidencia del Consejo de Ministros (PCM) será la autoridad técnico-normativa a nivel nacional responsable de dirigir, evaluar y supervisar el uso y la promoción del desarrollo de la IA y las tecnologías emergentes. Además, estará obligado a remitir un informe anual al Congreso de la República sobre los avances en la implementación de la Estrategia Nacional de Inteligencia Artificial.
Esto ha llevado a periodistas peruanos a argumentar que la ley del país sudamericano es anterior, por lo que la europea no es la primera a nivel mundial, como se autopromociona. Cronológicamente sí fue aprobada antes; sin embargo, es significativamente más breve —tan sólo dos páginas frente a las 150 de la UE— y su alcance es más limitado, ya que está circunscrita a Perú frente a los 27 Estados miembros donde regirá la Ley de IA de la Unión Europea.
Definiciones y alcance
Para la definición, el borrador sigue el enfoque propuesto por la Organización para la Cooperación y el Desarrollo Económicos (OCDE) y define un sistema de Inteligencia Artificial como aquel que “es diseñado para operar con elementos de autonomía que, basada en datos proporcionados por máquinas o humanos e inputs, infiere cómo alcanzar un set determinado de objetivos usando el Aprendizaje Automático (Machine Learning) y enfoques lógicos o basados en conocimientos, y produce outputs generados por el sistema como contenido (sistemas de IA generativa), predicciones, recomendaciones o decisiones, influyendo en los ambientes con los que interactúa”.
Escala de riesgo de los sistemas de IA
La ley proporciona una clasificación del riesgo de los sistemas de IA y otorga su correspondiente capa de protección: aquellos que impliquen un riesgo limitado serán sujetos a obligaciones de transparencia muy ligeros; mientras que los sistemas de IA de alto riesgo, entendidos como aquellos modelos entrenados con una gran cantidad de datos y con una complejidad, capacidades y rendimientos muy por encima del promedio y pueden difundir riesgos sistémicos a lo largo de valor, estarán sujetos a un régimen más estricto de requisitos y obligaciones para acceder al mercado de la UE.
Transparencia y protección de los derechos fundamentales
El acuerdo provisional también prevé una mayor transparencia respecto al uso de sistemas de Inteligencia Artificial de alto riesgo y una evaluación del impacto sobre los derechos fundamentales antes de su comercialización.
Excepciones
Asimismo, aclara que la regulación no aplica a áreas fuera del alcance de la Unión Europea y no afecta las competencias de sus Estados miembros en materia de seguridad nacional. Tampoco para aquellos sistemas que son usados exclusivamente con propósitos militares o de defensa, ni de investigación e innovación únicamente.
También se acordaron varios cambios en la propuesta de la Comisión sobre el uso de sistemas de IA con fines policiales. Con las salvaguardias adecuadas, pretenden reflejar la necesidad de respetar la confidencialidad de los datos operativos sensibles en relación con sus actividades.
Penalizaciones
El acuerdo establece que una persona física o jurídica puede presentar una queja ante la autoridad de vigilancia del mercado pertinente en relación con el incumplimiento de la Ley de IA y puede esperar que dicha queja se transmita de acuerdo con los procedimientos específicos de esa autoridad.
Las multas por violaciones de la ley de IA se establecieron como un porcentaje de la facturación anual global de la empresa infractora en el año financiero anterior o una cantidad predeterminada, lo que sea mayor. Esto sería 35 millones de euros o 7 por ciento por violaciones de las aplicaciones de IA prohibidas, 15 millones de euros o 3 por ciento por violaciones de las obligaciones de la ley de IA y 7.5 millones de euros o 1.5 por ciento por el suministro de información incorrecta.
Próximos pasos y entrada en vigor
La ley también crea una Oficina de IA dentro de la Comisión encargada de supervisar los modelos más avanzados, contribuir a fomentar estándares y prácticas de prueba y hacer cumplir las reglas comunes en todos los Estados miembros; una Junta de IA, compuesta por representantes de los Estados miembros, y un foro consultivo, con representantes de la industria, las pymes, las startups, la sociedad civil y la academia.
El acuerdo provisional establece que la Ley de IA debería regir dos años después de su entrada en vigor.
Tras el acuerdo provisional, en las próximas semanas continuará el trabajo a nivel técnico para ultimar los detalles del nuevo reglamento. Después, la presidencia presentará el texto a los representantes de los Estados miembros para su aprobación y el texto completo deberá ser confirmado por ambas instituciones y sometido a una revisión jurídico-lingüística antes de su adopción formal por los colegisladores.