Comisión Europea traza reglas para reconocer el contenido generado por IA

Bruselas presentó un borrador de código de transparencia que exige marcas de agua, metadatos y huellas digitales en textos, imágenes y videos creados con IA.

La Comisión Europea (CE) está desarrollando reglas de transparencia para que los proveedores y usuarios de sistemas de Inteligencia Artificial (IA) identifiquen el contenido generado de forma automática.

Bruselas publicó este miércoles un primer borrador del Código de prácticas sobre la transparencia del contenido generado por IA, que sienta las bases para garantizar que la ciudadanía pueda distinguir entre lo que es real y lo que ha sido creado o manipulado por una máquina.

El documento se enfoca en dos ámbitos de aplicación: los desarrolladores de sistemas de IA Generativa como OpenAI, Google, Mistral AI o Aleph Alpha; así como los “desplegadores”, quienes utilizan la IA para publicar contenido (por ejemplo, medios de comunicación o creadores en redes sociales).

Por un lado, el borrador señala que los proveedores de sistemas de IA deben garantizar que los productos de estos sistemas estén marcados en un formato legible por máquina y que sean detectables como generados o manipulados por IA.

Los desarrolladores tendrían que insertar señales imperceptibles pero resistentes en los datos (marcas de agua), incluir información descriptiva en el archivo o crear un registro único del contenido para su posterior identificación (huellas digitales), que permitan reconocer el contenido generado con Inteligencia Artificial.

Te recomendamos: China ordenará etiquetar contenido creado con Inteligencia Artificial

Bruselas reconoce que ninguna técnica de marcado es infalible por sí sola. Por ello, exige una combinación del marcado de metadatos, las marcas de agua y las huellas digitales en los sistemas.

Estos identificadores deben cumplir con criterios de efectividad sin degradar la calidad de contenido; fiabilidad, minimizando los falsos positivos y negativos; resistencia ante alteraciones accidentales; e interoperabilidad, de manera que permitan detectar contenido de múltiples proveedores en una misma interfaz.

Mientras tanto, los medios, creadores y otros actores “desplegadores” deberían cumplir con un etiquetado; es decir, que el contenido que parezca real pero que haya sido generado o manipulado sustancialmente debe estar etiquetado de forma clara y visible.

Además, si el contenido forma parte de un debate público o informativo, el Código advierte que la obligación de transparencia es más estricta para evitar la desinformación.

El etiquetado visual para la identificación consistiría en un ícono común y una clasificación clara para que las personas entiendan el grado de intervención de la IA, lo que posibilitará saber si un contenido es totalmente generado por la IA o si se trata de un contenido asistido por la IA.

Destacado: Interfaces invisibles: así será el futuro de la interacción humano‑tecnología con IA

Hay algunas excepciones de etiquetado para contenidos que formen parte de una obra evidente de ficción, creativa, satírica o artística, pero siempre que no interfieran con los derechos de terceros.

Y no es obligatorio etiquetar textos informativos si han pasado por un proceso de revisión humana o control editorial, siempre que una persona física o jurídica asuma la responsabilidad editorial del contenido.

La Comisión Europea busca que este código de prácticas sea susceptible de adaptarse a la evolución tecnológica, y que sirva como presunción de conformidad de las empresas con las obligaciones de transparencia de la Ley de IA.

“La transparencia no es sólo una obligación técnica ―indica el documento―, sino una salvaguarda fundamental para la confianza en el ecosistema digital y la protección de los procesos democráticos frente a la manipulación sintética”.