La Unión Europea (UE) está considerando prohibir el uso de sistemas de Inteligencia Artificial (IA) para varios propósitos como la vigilancia masiva y las puntuaciones de crédito social, con la imposición de multas de hasta 4 por ciento de los ingresos anuales para las empresas que incumplan la disposición, según reportó Político con base en un borrador.
De acuerdo con la información que circula en varios medios de comunicación, la normativa que podría ser aprobada por la Comisión Europea (CE) la próxima semana, propone la creación de una “Junta Europea de Inteligencia Artificial”, integrada por expertos para validar y probar sistemas de IA considerados de alto riesgo.
El documento propone que aquellas compañías con soluciones de IA tendrán que determinar si el caso de uso de la solución aplica como de “alto riesgo”, por lo que tendrán que aplicar para una evaluación previa a la salida del mercado.
Las empresas que desarrollan o venden software de Inteligencia Artificial prohibido en la UE podrían recibir una multa de hasta el 4 por ciento de sus ingresos globales o un máximo de 20 millones de euros por incumplir la normativa.
“Una clasificación de un sistema de IA como de alto riesgo a los efectos del presente Reglamento no necesariamente significa que el sistema como tal o el producto en su conjunto se consideraría necesariamente de ‘alto riesgo’, según los criterios de la legislación sectorial”, señala el texto.
Entre los posibles riesgos y daños a considerar por una solución se incluyen la provocación de lesiones o la muerte de una persona, daño a la propiedad, impactos adversos a la sociedad, al sector financiero o educativo, así como disrupciones en la entrega de servicios esenciales, públicos o privados.
La nueva normativa establece la prohibición de IA para la “vigilancia indiscriminada” y a “gran escala”, incluidos los sistemas que rastrean directamente a las personas en entornos físicos. Se prohíbe “rastrear a personas físicas a través de la interceptación o el acceso a la comunicación, localización, metadatos y otros datos personales obtenidos en entornos digitales o físicos”.

Sin embargo, se excluyen sistemas o prácticas de vigilancia aprobadas por la ley o utilizadas por las autoridades públicas para la “salvaguardar la seguridad”.
Se establecerá la solicitud de una autorización especial para el uso de “sistemas de identificación biométrica remota” como el reconocimiento facial en espacios públicos. Requerirán también una autorización previa los sistemas que se empleen para garantizar la seguridad en la gestión de infraestructuras públicas como las carreteras o el suministro de agua, gas y electricidad.
El texto también se centra en el establecimiento de “medidas armonizadas de transparencia”, de modo que se evite engañar a los ciudadanos europeos.
Por ejemplo, se requerirán notificaciones cuando las personas interactúen con un sistema de Inteligencia Artificial, a menos que esto sea “obvio por las circunstancias y el contexto de uso”.
“Los usuarios que utilicen un sistema de Inteligencia Artificial para generar o manipular contenido de imagen, audio o video que se asemeje apreciablemente a personas, lugares o eventos existentes y que falsamente le parezca auténtico a una persona razonable, deben revelar que el contenido ha sido creado artificialmente o manipulado etiquetando la salida de Inteligencia Artificial en consecuencia y revelando su origen artificial”, señala la normativa.
Se buscará también la prohibición de los sistemas de IA que “manipulen el comportamiento o las opiniones humanas” de tal forma que las personas tomen decisiones que vayan “en su detrimento”.
Se añade la prohibición de los sistemas de Inteligencia Artificial que crean puntajes de crédito social, lo que significa juzgar la confiabilidad de alguien en función del comportamiento social o los rasgos de personalidad predichos.
Además del uso de IA en sistemas de vigilancia, también se establecerá una supervisión de estos sistemas que impliquen “alto riesgo”, incluidos los que representan una amenaza directa para la seguridad, como los automóviles autónomos, y los que tienen una alta probabilidad de afectar el sustento de alguien, como los que se utilizan para la contratación laboral, las decisiones judiciales y la puntuacion de credito.
Se incluye la evaluación de sistemas de alto riesgo antes de que se pongan en servicio, incluida la garantía de que estos sistemas sean explicables a los supervisores humanos y que estén capacitados en conjuntos de datos de “alta calidad” probados para detectar sesgos.
Expertos consultados por The Verge, consideraron que el texto propuesto en la normativa es aún bastante vago y general, por lo que crearía múltiples lagunas legales. Algunas de las críticas a la propuesta giran en torno a definiciones técnicas o la ambigüedad en el texto sobre la dificultad de regular sistemas que “manipulen el comportamiento”
En Twitter, Omer Tene, vicepresidente de la organización sin fines de lucro IAPP (Asociación Internacional de Profesionales de la Privacidad), comentó que el reglamento “representa el enfoque típico de Bruselas hacia la nueva tecnología y la innovación. En caso de duda, regule”, según cita The Verge.
Desde finales del año pasado, la Comisión Europea pretendía presentar una normativa relativa a la Inteligencia Artificial, para lo cual se estableció una comisión especial.
“Europa necesita desarrollar una Inteligencia Artificial que genere confianza, elimine cualquier tipo de sesgo y discriminación, contribuya al bien común, al tiempo que asegure que las empresas y la industria generen prosperidad económica”; explicó en su momento el Presidente de dicha comisión, el eurodiputado rumano Renew Dragoș Tudorache.
El Parlamento Europeo aprobó el 20 de octubre de 2020 tres informes que estudian cómo regular la Inteligencia Artificial para impulsar la innovación, el respeto de estándares éticos y la confianza en la tecnología.