Ley de Inteligencia Artificial entra en fase final en Europa: prohíbe la IA de alto riesgo

El Parlamento Europeo aprobó prohibiciones para la IA de riesgo inaceptable y alto riesgo, como la identificación biométrica con reconocimiento facial.

Una ambiciosa ley para regular la Inteligencia Artificial (IA) está avanzando con paso firme en el Parlamento Europeo. Este miércoles, el proyecto inició la fase final de la negociación entre los eurodiputados acerca de las disposiciones finales y las obligaciones que se impondrían al uso de la IA.

Con 499 votos a favor, 28 en contra y 93 abstenciones, el Parlamento aprobó una última versión que contempla reglas para promover la adopción de la Inteligencia Artificial de forma confiable, segura y transparente, apegada con los derechos humanos y la democracia.

Bruselas, con este paso, se ubica a la delantera de las potencias mundiales en la regulación de la IA. Su posición en este tema podría ser una guía para otras regiones del mundo, aunque también ha recibido críticas por orientarse a una legislación muy restrictiva.

La propuesta de ley busca mitigar los posibles riesgos nocivos de la IA. Para ello, los eurodiputados establecieron reglas de acuerdo con el nivel de peligro que representa un determinado uso de la IA. Quedarían totalmente prohibidos los sistemas de IA con un riesgo inaceptable para la seguridad de las personas; por ejemplo, los de puntuación social (en recursos humanos).

Destacado: Inteligencia Artificial: la buena regulación promoverá innovación y anticipará sus riesgos

Asimismo, estarían prohibidos los siguientes sistemas:

  • Sistemas de identificación biométrica remota “en tiempo real” en el espacio público.
  • Sistemas de identificación biométrica a distancia “post”, excepto los usados en la persecución de delitos graves y con previa autorización judicial.
  • Sistemas de categorización biométrica que utilizan características sensibles (género, raza, etnia, etc).
  • Sistemas policiales predictivos (basados ​​en perfiles, ubicación o comportamiento pasado).
  • Sistemas de reconocimiento de emociones en las fuerzas del orden, la gestión de fronteras, el lugar de trabajo y las instituciones educativas.
  • La extracción no dirigida de imágenes faciales de Internet o secuencias de circuito cerrado de televisión para crear bases de datos de reconocimiento facial (violando los derechos humanos y el derecho a la privacidad).

Otra de las categorías que abarca la legislación es la Inteligencia Artificial de alto riesgo. Los sistemas que se contemplen en esta categoría suponen un daño significativo para la salud, la seguridad, los derechos fundamentales o el medio ambiente de la población.

En esta clasificación se encuentran, por ejemplo, los sistemas de IA usados para influir en los votantes y los resultados de procesos electorales, o los sistemas de recomendaciones de las redes sociales.

Por otro lado, la ley identifica la IA de propósito general con obligaciones para evitar cualquier riesgo. Las empresas creadoras de este tipo de sistemas, en los que se incluye la Inteligencia Artificial Generativa (como ChatGPT), deben registrar sus modelos en la base de datos de la Unión Europea antes de su lanzamiento al mercado.

Además, estos sistemas tendrían que cumplir con requisitos de transparencia y revelar cuando un contenido haya sido generado por la IA, ayudar a distinguir imágenes falsas y brindar salvaguardas contra la generación de contenido ilegal.

Te puede interesar: Europa sigue por debajo de EUA y China en la carrera mundial por la Inteligencia Artificial

El Parlamento Europeo estuvo de acuerdo con estos parámetros para una ley en la materia, pero aún se están discutiendo los detalles y las directrices que se darán a las empresas para cumplirlas. Si bien el proyecto ya entró a la etapa final, se espera que la discusión tome varios meses más, por lo que podría estar lista para finales de este año.

Uno de los desafíos que tienen los eurodiputados es determinar protecciones suficientes para el uso adecuado de la Inteligencia Artificial, al mismo tiempo que permiten suficiente flexibilidad para el desarrollo de esta tecnología y su impacto positivo en diversas áreas sociales y productivas.

Los eurodiputados dijeron que la nueva ley promoverá los sandboxes regulatorios, o entornos de prueba para explorar aplicaciones de la IA de manera controlada antes de implementarla, lo cual, en su opinión, impulsará la innovación alrededor de esta tecnología.

Y como ya lo habían anticipado las autoridades europeas, la idea del Parlamento es establecer una Oficina de Inteligencia Artificial que será la encargada de monitorear el cumplimiento del reglamento, de vigilar y orientar a las compañías y recibir quejas de la ciudadanía.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies