Este 1 de agosto de 2024 entró en vigor la Ley de Inteligencia Artificial (IA) de la Unión Europea, la primera regulación regional de largo alcance sobre IA en el mundo.
Su objetivo es garantizar que la IA desarrollada y utilizada en el bloque sea confiable y proteja los derechos fundamentales de las personas.
Busca establecer un mercado interior armonizado en la Unión Europea (UE), fomentar la adopción de la IA y crear un entorno propicio para la innovación y la inversión. No obstante, ya empezó a cobrar sus primeros estragos, con la postergación de los lanzamientos por parte de los gigantes tecnológicos, como Meta y Google, y se teme que pueda dejar fuera a Europa de la carrera por la IA.
Relacionado: Avanzada regulatoria: un arma de doble filo que puede dejar a Europa fuera de la carrera de la IA
Niveles de riesgo
La Ley de IA de la UE posee una definición prospectiva basada en la seguridad de los productos y el riesgo de los modelos, a los que clasifica en: modelos de uso general, de uso general con riesgo sistémico y de alto riesgo, cada uno con sus propias obligaciones y prohibiciones.
Los últimos, los sistemas de alto riesgo, están obligados a cumplir con los requisitos más estrictos, como la reducción del riesgo, la alta calidad de los conjuntos de datos, el registro de la actividad, la documentación detalla, brindar información clara para el usuario, garantizar la supervisión humana y un alto nivel de solidez, precisión y ciberseguridad.
Aplicación y siguientes pasos
Los Estados miembros tienen hasta el 2 de agosto de 2025 para designar a las autoridades nacionales competentes que supervisarán la aplicación de las normas aplicables a los sistemas de IA y se encargará de la vigilancia del mercado.
La Oficina de IA de la Comisión Europea será el principal organismo de aplicación de la Ley a escala en la región, y la autoridad responsable de la aplicación de las normas relativas a los modelos de IA de uso general.