La Comisión Europea (CE) presentó oficialmente su propuesta para establecer un marco legal alrededor del desarrollo de la Inteligencia Artificial (IA) que permita garantizar la seguridad de los usuarios, mientras se incentiva la inversión y la innovación de este sector. La ley buscaría prohibir algunas de las iniciativas más polémicas sobre el uso de esta herramienta como vigilancia masiva o la evaluación del crédito social.
“Con estas reglas históricas, la UE (Unión Europea) encabeza el desarrollo de nuevas normas globales para asegurarse de que se puede confiar en la IA. Nuestras normas, preparadas para el futuro y favorables a la innovación, intervendrán donde sea estrictamente necesario: cuando estén en juego la seguridad y los derechos fundamentales de los ciudadanos de la UE”, señaló Margrethe Vestager, vicepresidenta Ejecutiva de la Unión Europea para una era digital.
La nueva ley incluye la propuesta para el establecimiento de un Plan Coordinado que aporte los recursos financieros y políticos necesarios entre los Estados miembros de la Unión Europea. Este Plan creará las condiciones necesarias para el desarrollo y la innovación de IA, como facilitar infraestructura y marcos de investigación para la excelencia en el desarrollo de aplicaciones, asegurarse que las aplicaciones tendrán un impacto social positivo, y construir el liderazgo estratégico en sectores como el medio ambiente.
En junio de 2020, la Comisión Europea dio por cerrada la consulta pública sobre la regulación de la nueva ley de IA, en la que participaron 352 compañías, 152 académicos, 73 funcionarios de autoridades públicas y 160 organizaciones civiles. Según la CE, la gran mayoría de los participantes estuvo de acuerdo en la necesidad de una nueva legislación, pero se advirtió que esta debía ser neutral sobre la tecnología y cuidar que no sea una carga regulatoria para el sector.
Adicionalmente, la mayoría de los participantes se expresó a favor del enfoque basado en el nivel de riesgo. Según la Comisión, un marco basado en el nivel de riesgo se consideró una mejor opción que la regulación general de todos los sistemas de IA. Los tipos de riesgos y amenazas deben basarse en un enfoque de sector por sector y caso por caso. Los riesgos también deben calcularse teniendo en cuenta el impacto en los derechos y la seguridad.
Entre las aplicaciones que se consideran de Alto Riesgo se incluye la utilización de IA en sistemas de infraestructura crítica como transporte, que ponga en riesgo la vida de los usuarios; educación, que determine el curso profesional de alguien; en procesos de recursos humanos que utilice software para ordenar currículums; o en aplicaciones para la aplicación de la ley que pueda dañar los derechos fundamentales de los ciudadanos europeos.
Entre otras áreas, se evaluarán también aplicaciones en servicios públicos y privados esenciales, migración y peticiones de asilo o su uso en procesos democráticos.
Para estas aplicaciones de alto riesgo se requerirá que los participantes del mercado aporten una evaluación adecuada y sistemas de mitigación de riesgo, bases de datos de alta calidad y registro de las actividades del sistema, documentación detallada de la aplicación, información clara y precisa para el usuario, supervisión humana y altos niveles de seguridad.
En particular, señala la CE, todos los sistemas de identificación biométrica remota se consideran de alto riesgo y están sujetos a requisitos estrictos. Su uso en vivo en espacios de acceso público con fines de aplicación de la ley está prohibido en principio. Sin embargo, se podrán establecer excepciones como búsqueda de personas, prevención del terrorismo e identificación de delincuentes.
Entre las aplicaciones de riesgo limitado se incluyen los chatbots, utilizados, por ejemplo, en la atención al cliente en industrias como la financiera o de telecomunicaciones. Aunque no se prohíbe su uso, la ley establece que estas aplicaciones deben permitir al usuario tener conocimiento que se está comunicando con algún tipo de IA.
En cuanto a las aplicaciones de bajo riesgo se incluye la Inteligencia Artificial en videojuegos o filtros de spam. Según la CE, la mayoría de las aplicaciones caen en esta categoría, y no habrá ningún tipo de intervención de parte de la regulación propuesta.
En términos de gobernanza, la Comisión propone que las autoridades nacionales competentes de vigilancia del mercado supervisen las nuevas normas, mientras que la creación de una Junta Europea de Inteligencia Artificial facilitará su implementación e impulsará el desarrollo de estándares para la IA.