Por el interés acerca de conocer el contenido de la A.I. Act de la Unión Europea, a continuación se muestra una sinopsis de los puntos clave sobre lo que se conoce como Ley de Inteligencia Artificial de la UE, recientemente anunciada por el Consejo de la Unión Europea; en posteriores artículos habrá un análisis de sus disposiciones y de sus posibles alcances y efectos.
Descripción general
- La UE ha llegado a un acuerdo político provisional sobre una legislación para regular los sistemas de Inteligencia Artificial (IA). El reglamento tiene como objetivo establecer estándares globales para la IA e impulsar la competitividad de la UE, protegiendo los derechos fundamentales consagrados en los tratados y cartas de la UE. Este será uno de los primeros marcos legales integrales a nivel mundial para la IA. Se espera que la Ley de IA de la UE dé forma a una futura legislación sobre IA a nivel global, sentando precedentes éticos y legales.
- El objetivo es establecer reglas claras para el uso de la IA para impulsar la confianza en la adopción de la IA guiando su desarrollo, uso y gobernanza bajo criterios de seguridad, legalidad y un marco de referencia ético. La Ley de IA representa un esfuerzo que trata de equilibrar el riesgo entre la innovación en IA y la protección de los derechos de la población. Su objetivo es hacerlo a través de normas armonizadas implementadas y aplicadas por varios organismos de supervisión en todo el mercado de la UE de aproximadamente 450 millones de personas.
Disposiciones clave
- La regulación de referencia establece requisitos obligatorios para los sistemas de IA de “alto riesgo”, que se definen en función del daño potencial que puedan causar. Estos sistemas deberán cumplir obligaciones relacionadas con la gestión de riesgos, la calidad de los datos que requieran, la transparencia de los algoritmos, la presencia de la supervisión humana, la precisión de sus resultados en sus aplicaciones, etcétera.
- Existe una prohibición sobre ciertas prácticas de IA de “riesgo inaceptable”, como su uso en aplicaciones que tengan como objeto ciertos usos para la vigilancia masiva de la población y sus usos en aplicaciones de clasificación social, así como los sistemas susceptibles a tener como objeto o efecto la “manipulación” o que distorsionen el comportamiento de las personas.
- Todos los sistemas de IA deben ser transparentes, con requisitos de divulgación y de eliminar la asimetría de información entre desarrolladores y usuarios. Notificando a los usuarios objetivo que están interactuando con un sistema de IA subyacente, estableciendo reglas de transparencia como revelar el uso de “chatbots” y la obligación de obtener confirmación humana antes de tomar decisiones importantes basadas en la identificación biométrica producto de algoritmos basados en IA. Hay algunas excepciones para la IA de aplicaciones policiacas o de seguridad pública.
- Se crearán nuevas estructuras de gobernanza, como una Junta de Inteligencia Artificial de la UE, para fomentar la coordinación. Los Estados miembros también deben designar autoridades nacionales para supervisar la aplicación de las normas en sus respectivas jurisdicciones.
- Se incluyen medidas de apoyo a la innovación, como entornos de pruebas regulatorias de IA para permitir pruebas controladas (semejantes a los sandbox regulatorios). Se establecerán excepciones para las pequeñas y medianas empresas, así como para las startups.
Supervisión
- Se impondrán sanciones significativas por incumplimiento a la normatividad, hasta 30 millones de euros o 6 por ciento de la facturación anual global. Se aplicarán topes máximos menores para las pymes.
- Las autoridades de vigilancia del mercado de los Estados miembros supervisarán el cumplimiento a nivel nacional. El Supervisor Europeo de Protección de Datos supervisará el uso de los sistemas de Inteligencia Artificial por parte de las instituciones de la UE y las autoridades nacionales competentes, para coordinar y supervisar la aplicación de las regulaciones en los 27 Estados miembros.
Próximas etapas
- El Parlamento Europeo y el Consejo deben aprobar formalmente el acuerdo antes de que entre en vigor. Las normatividad de referencia empezará a aplicarse en 2025 y ciertas disposiciones sobre estructuras de gobernanza entrarán en vigor antes.
- En resumen, se trata de un esfuerzo histórico y basado en riesgos para equilibrar la innovación en IA y la protección de los derechos a través de normas armonizadas en toda la UE. Las capacidades de aplicación de la ley serán clave.
Desafíos
- Efectos económicos en la asignación de recursos y derechos de propiedad en la practicidad en diversas aplicaciones de IA. Persistirá en debate sobre la ley que potencialmente podría sofocar la innovación al regular excesivamente las tecnologías emergentes.
- Coexistencia con una coordinación global, es decir, existen desafíos para alinear la ley con los desarrollos internacionales de IA, sobre todo considerando que el mercado o el ecosistema de IA es fundamentalmente global y el regionalismo en ello es incompatible con su expansión y en la competitividad de cada jurisdicción nacional. Es fundamental la cooperación global en la gobernanza de la IA para abordar los desafíos transfronterizos.
- Evolución, la naturaleza dinámica del mercado y de la tecnología de IA requiere actualizaciones y adaptaciones continuas del marco regulatorio, por lo que el desafío es que sea lo suficientemente general para comprender los cambios en el mercado y la tecnología, pero a la vez que conserve sus principios fundamentales, lo cual es un reto que ninguna legislación sectorial ha logrado.
Reflexiones finales
Si la IA fuera una tecnología excluible y controlada por un planeador social benevolente hipotético, está claro que la IA podría liberarse de forma segura, es decir, podría controlarse a la supuesta “bestia”, como algunos imaginan.
Sin embargo, eso es imposible, incluso si fuera una tecnología patentable, ese control sólo se llevaría a cabo durante máximo dos décadas, lo que sólo retrasaría cualquier daño externo.
Por lo tanto, se supone que la IA es una tecnología no excluible. Así que está sujeta a potenciales desarrollos, tanto por entidades con sólo objetivos sociales, incluso altruistas, como entidades de mercado con fines de maximizar rentas económicas como cualquier empresa.
Al analizar la competencia tecnológica, la pregunta principal es si una entidad con fines de lucro que invierte en tecnología, el producto sin restricciones estará disponible en el mercado y esto conducirá a externalidades positivas y negativas.
Por lo tanto, responder a la pregunta implica examinar las condiciones bajo las cuales la inversión entre entidades puede adelantarse y transformarse en una carrera por lograr la mayor innovación de cualquier aplicación que sea factible.
Por lo anterior, se encuentra limitada la capacidad para limitar las aplicaciones o productos basados en IA que emerjan.
En otras palabras, se demuestra que una forma de “autorregulación” es eficaz. Esto lleva a la conclusión natural de que regular los efectos nocivos de la IA, o de cualquier otra tecnología, en todo caso, probablemente sea conducida por la política gubernamental.
De hecho, si tales políticas pueden crear condiciones mediante las cuales las externalidades sean internalizadas por las empresas (por ejemplo, a través de leyes de responsabilidad por productos “defectuosos”), se reforzarán las condiciones mediante las cuales estas innovaciones o desarrollos podrían resultar eficaces y seguras.
Sin embargo, esto es un tema para definir. Queda saber si la intervención gubernamental necesaria podría permanecer bajo el control de los gobiernos nacionales, o de bloque como en la UE, o si requiere una legislación mundial porque el entorno digital es global y los intentos de aislamiento o nacionalismo digital conlleva a regímenes autoritarios y de preponderancia de una particular visión de Estado.