Verificador de la Ley de IA de la UE destapa los desafíos de las grandes tecnológicas para cumplir con la normativa
Algunos de los modelos de IA más destacados no están cumpliendo con las regulaciones europeas en áreas clave como la resiliencia en materia de ciberseguridad y la producción discriminatoria, según datos vistos por Reuters.
La UE había debatido durante mucho tiempo nuevas regulaciones de IA antes de que OpenAI lanzara ChatGPT al público a fines de 2022. La popularidad récord y el consiguiente debate público sobre los supuestos riesgos existenciales de tales modelos impulsaron a los legisladores a elaborar reglas específicas en torno a las IA de “propósito general” (GPAI).
Ahora, una nueva herramienta, que ha sido bien recibida por los funcionarios de la Unión Europea, ha probado modelos de IA generativos desarrollados por grandes empresas tecnológicas como Meta y OpenAI en docenas de categorías, de acuerdo con la amplia Ley de IA del bloque, que entrará en vigor en etapas durante los próximos dos años.
Diseñado por la startup suiza LatticeFlow AI y sus socios en dos institutos de investigación, ETH Zurich y el INSAIT de Bulgaria, el marco otorga a los modelos de IA una puntuación entre 0 y 1 en docenas de categorías, incluidas la solidez técnica y la seguridad.