Crónica de una muerte anunciada: Europa recula en su ambiciosa ley de IA

Incluso antes de cobrar vida por completo, la Ley de Inteligencia Artificial (IA) de la Unión Europea (UE) podría morir. O al menos las aspiraciones que se tenían alrededor de una ley que ha sido muy ambiciosa y pionera, pero que podría terminar siendo inaplicable.

El 19 de noviembre, la Comisión Europea publicó un ómnibus digital cuyo objetivo es simplificar la implementación de las normas armonizadas sobre IA, luego de que Bruselas identificara desafíos significativos para la ejecución efectiva de la ley.

La Comisión Europea reconoce, en su propuesta, que el bloque no está listo en cuanto a estándares, organismos y guías para cumplir con la ley, lo que amenaza con asfixiar la innovación y aumentar desproporcionadamente los costos para las empresas europeas.

Si no se simplifican las reglas ―señala el documento―, se corre el riesgo de que las empresas no sean competitivas y que la UE quede rezagada en la adopción de la Inteligencia Artificial.

Al igual que en la obra de García Márquez Crónica de una muerte anunciada, donde el destino fatal de Santiago Nasar era conocido por todo el pueblo antes de que ocurriera, la inviabilidad de los plazos y requisitos originales de la ley de IA era conocida antes de que sucediera.

Sin embargo, en esta historia sí hubo advertencias internas y externas y presiones geopolíticas, principalmente por parte de Estados Unidos y las grandes empresas tecnológicas (Big Tech), que influyeron en la reformulación de la ley de IA.

Los problemas prácticos de la ley de IA

El ómnibus digital no representa la muerte (una licencia literaria) de la ley de IA, pero sí que Europa se ve forzada a sacrificar sus ambiciones regulatorias en favor de la supervivencia económica, impulsada además por las advertencias del Informe Draghi sobre la competitividad y por la amenaza de un desacople tecnológico con Estados Unidos.

La ley de IA de la UE comenzó a entrar en vigor en agosto de 2024 y se iba a aplicar en su totalidad a partir de agosto de 2026. Ahora se busca aplazar hasta 16 meses la implementación de la normativa para sistemas de IA considerados de alto riesgo.

De acuerdo con la ley original, para que una empresa pueda certificar que su sistema de IA de alto riesgo es seguro, preciso y libre de sesgos necesita cumplir ciertos requisitos y seguir normas técnicas. 

Pero, dado que estos estándares no están listos todavía, las empresas no tienen manera de comprobar que cumplen y quedan expuestas a una inseguridad jurídica. Los organismos técnicos se han tomado mucho tiempo para definir dichos estándares que se suscriben en conceptos como la equidad o la transparencia.

De esta manera, mantener las fechas de aplicación originales de agosto de 2026 para sistemas de alto riesgo habría obligado a la industria a cumplir con requisitos aún no terminados, paralizando el mercado y forzando a las empresas a retirar productos, frenar proyectos o enfrentar multas masivas por incumplimientos.

Otro de los obstáculos de la ley europea ha sido la designación de autoridades nacionales competentes y organismos de evaluación de la conformidad, que serían los encargados de dar las certificaciones para los sistemas de IA más críticos.

La propuesta de flexibilización de la UE admite que hay demoras y que en general la carga administrativa que venía junto con la ley de IA es insostenible para las empresas. Esto, por un lado, podría generar un cuello de botella en las solicitudes y, por otro, altos costos sobre todo para las pequeñas y medianas empresas.

Sobrerregulación y la presión de EE. UU.

La flexibilización de la ley de IA se da luego de que, en septiembre de 2024, Mario Draghi, expresidente del Banco Central Europeo, presentara por encargo de Bruselas su informe sobre el futuro de la competitividad europea.

El informe pintó un panorama sombrío: Europa se enfrenta a una “agonía lenta” debido a una brecha de productividad persistente frente a Estados Unidos y China. Las causas, según el análisis, son la sobrerregulación y fragmentación del mercado del mercado único.

Para revertir esta situación, Draghi propuso realizar cambios regulatorios profundos a favor de tener normativas orientadas al crecimiento empresarial. Específicamente sobre la IA, plantea que es necesario incrementar la inversión y desarrollo para desbloquear su potencial en diversas industrias. 

El también exprimer ministro italiano llamó, en septiembre de este año, a poner pausa a la ley de IA mientras Europa evalúa los posibles riesgos e inconvenientes, pues por ahora la normativa es una fuente de incertidumbre en lugar de apoyar la innovación.

La advertencia de Draghi hizo eco de las preocupaciones de las Big Tech y decenas de empresas europeas. En julio, más de 40 empresas de la región ―entre ellas, ASML, Philips, Airbus y Siemens― enviaron una carta a Bruselas pidiendo detener el reloj y avanzar en una mayor simplificación de las reglas.

También varios de los principales ejecutivos de las Big Tech dijeron que la ley de IA estaba yendo demasiado lejos, pues impone requisitos inviables que no corresponden con la realidad de la evolución tecnológica.

Más allá de las advertencias, las grandes empresas tecnológicas, incluyendo a jugadores como Google, Meta, Apple y OpenAI, retrasaron la implementación de sus modelos de IA en Europa hasta tener certeza.

Y mientras tanto, el gobierno de Estados Unidos también ha presionado a Europa para relajar o incluso abandonar su ley. La administración de Donald Trump ha dicho que el Código de Buenas Prácticas que acompaña la ley es excesivo y dañino para la innovación y la competitividad de empresas estadounidenses.

Washington, además, ha amenazado repetidamente con imponer aranceles a países cuyas regulaciones o impuestos digitales considera discriminatorios contra las Big Tech, por lo que la ley de IA ha sido un punto de conflicto entre el gobierno de Trump y Bruselas.

Recién en julio de 2025, Trump y Ursula von der Leyen, presidenta de la Comisión Europea, firmaron un acuerdo sobre aranceles y comercio, mediante el que pactaron condiciones para restablecer la estabilidad y la previsibilidad para los consumidores y las empresas de la Unión Europea.

Para lograr el acuerdo y frenar los aranceles de hasta 30% que enfrentarían sus exportaciones, Europa cedió en varios aspectos y adquirió compromisos de inversión y compras, incluyendo chips de Inteligencia Artificial.

Si bien en el papel no hay ninguna cláusula explícita sobre la regulación, las negociaciones con Estados Unidos probablemente influyeron en la nueva postura europea más a favor de la simplificación, tomando en cuenta que Trump podría cambiar de opinión en cualquier momento y que el acuerdo comercial no cubre el acero, el aluminio ni productos derivados.

Lección para América Latina

La ley europea de IA ha inspirado a varios países de América Latina en el desarrollo de marcos regulatorios propios. Congresos como los de Colombia, México y Perú están analizando iniciativas que retoman la clasificación de riesgos y otros elementos del modelo europeo.

Por años, la región ha visto a Europa como un faro moral y normativo en materia digital. Pero el repliegue de Bruselas obliga a preguntarse si conviene seguir una ruta cuyo desenlace —como en Crónica de una muerte anunciada— parecía escrito desde el principio.

Si la Unión Europea, con su músculo técnico y financiero, terminó reconociendo que no podía cumplir sus propios plazos ni sostener la carga administrativa que había diseñado, América Latina corre el riesgo de repetir una historia cuyo final ya es conocido: regulaciones que nacen con ambición, pero se tambalean por falta de infraestructura, capacidad institucional o alineación con las dinámicas reales del mercado y con la evolución digital.

Es innegable que la Inteligencia Artificial necesita marcos regulatorios que pongan salvaguardas y propicien su desarrollo y uso ético, responsable y transparente. Pero el caso europeo pone de manifiesto que esos marcos tendrían que ser más pragmáticos, flexibles, graduales y capaces de adaptarse al ritmo tecnológico.