Fiel a su vocación reguladora de las grandes empresas tecnológicas y de Internet, que se ha materializado en instrumentos como el Reglamento General de Protección de Datos (GDPR) y las leyes de Servicios y Mercados Digitales, (DSA y DMA, respectivamente), la Unión Europea dio los primeros pasos en la regulación de la Inteligencia Artificial (IA).
El Parlamento Europeo aprobó un proyecto con las primeras normas para regular la IA, las cuales buscan garantizar que los sistemas sean supervisados por personas, seguros, transparentes, rastreables, no discriminatorios y respetuosos con el medio ambiente.
El 11 de mayo, las comisiones de Mercado Interior y Libertades Civiles del Europarlamento aprobaron, con 84 votos a favor, 7 en contra y 12 abstenciones, un proyecto de mandato de negociación de Inteligencia Artificial.
En sus enmiendas a la propuesta de la Comisión Europea, los eurodiputados también asentaron la necesidad de que, por definición, la IA esté diseñada para ser tecnológicamente neutra, de modo que pueda aplicarse a los sistemas de IA presentes y futuros.
Recomendamos: WhatsApp podría abandonar el Reino Unido por ley que amenaza la privacidad
Enfoque europeo de la IA basado en riesgo
Las reglas siguen un enfoque basado en riesgos y establecen obligaciones para proveedores y usuarios dependiendo del nivel de riesgo que la IA pueda generar, e incluyeron una lista de prohibiciones de usos intrusivos y discriminatorios de los sistemas de IA:
- Sistemas de identificación biométrica remota “en tiempo real” en espacios de acceso público.
- Sistemas de identificación biométrica a distancia “post”.
- Sistemas de categorización biométrica que utilizan características sensibles (como género, raza, etnia, estado, ciudadanía, religión y orientación política).
- Sistemas policiales predictivos (basados en perfiles, ubicación o conducta delictiva pasada).
- Sistemas de reconocimiento de emociones en las fuerzas del orden, la gestión de fronteras, el lugar de trabajo y las instituciones educativas
- Raspado indiscriminado de datos biométricos de las redes sociales o imágenes de CCTV para crear bases de datos de reconocimiento facial.
Y ampliaron la clasificación de áreas de alto riesgo para incluir daños a la salud, la seguridad, los derechos fundamentales o el medio ambiente; así como aquellos sistemas de IA que influyan en los votantes durante las campañas políticas y los de recomendación utilizados por las plataformas de redes sociales.
Medidas para la IA de uso general y de alto riesgo
Adicionalmente, los eurodiputados incluyeron obligaciones para los proveedores de modelos básicos, los cuales tendrán que garantizar una protección sólida de los derechos fundamentales, la salud y la seguridad, el medio ambiente, la democracia y el Estado de derecho.
Los modelos básicos generativos, como ChatGPT de OpenAI, tendrán que cumplir con requisitos de transparencia adicionales, como revelar el contenido que fue generado por IA, diseñar el modelo para evitar que genere contenido ilegal y publicar resúmenes de datos protegidos por derechos de autor utilizados para capacitación.
Antes de que comiencen las negociaciones con el Consejo sobre la forma final de la ley, este proyecto debe ser aprobado por todo el Parlamento, y se espera que se vote durante la sesión del 12 al 15 de junio.