Deepfakes de abuso infantil: el lado oscuro de la IA que las tecnológicas no pueden ignorar

La Inteligencia Artificial está facilitando la creación de imágenes de abuso infantil y deepfakes explícitos, desatando una crisis que desafía a autoridades y empresas que desarrollan esta tecnología, poniendo en riesgo la seguridad infantil en línea.

El avance de la Inteligencia Artificial (IA) Generativa está abriendo la puerta a que delitos graves como la explotación y el abuso sexual infantil se vuelvan más difíciles de detener, una situación que ya preocupa profundamente a las autoridades estadounidenses. 

El Departamento de Justicia de Estados Unidos alertó sobre un aumento en la creación y distribución de imágenes de abuso sexual infantil generadas mediante IA Generativa. Las autoridades temen que esta tecnología, que permite la creación de contenido ilícito con facilidad, agrave la crisis del abuso infantil en línea.

Según un informe de Reuters, los fiscales federales han presentado este año varios casos penales contra sospechosos que han utilizado herramientas de IA Generativa para producir imágenes explícitas de menores.

“Lo que nos preocupa es la normalización de este fenómeno”, señaló James Silver, subdirector de la Sección de Delitos Informáticos del Departamento de Justicia. Según Silver, el fácil acceso a estas herramientas facilita la generación de este tipo de contenido, y detener su proliferación es un desafío cada vez mayor.

El problema con la IA plantea un desafío sin precedentes para el marco legal actual y la capacidad de las fuerzas del orden para frenarlo.

La normalización del abuso por culpa de la IA

Una de las principales preocupaciones que expone el Departamento de Justicia es la facilidad con la que los sistemas de IA permiten la creación de imágenes explícitas, incluso a partir de fotos comunes de niños. Herramientas como Stable Diffusion, que generan imágenes a partir de texto, están en el centro de estas investigaciones.

La rápida proliferación de este tipo de material ha llevado a que entidades como el Centro Nacional para Niños Desaparecidos y Explotados reciban cientos de reportes mensuales relacionados con la IA Generativa, aunque estos informes aún siguen representando sólo una pequeña fracción del total de denuncias por abuso infantil en línea.

James Silver, subdirector de la Sección de Delitos Informáticos y Propiedad Intelectual del Departamento de Justicia, señala la preocupación de que la tecnología no sólo facilite la producción de material ilícito, sino que también contribuya a la “normalización” de su difusión. Este fenómeno podría agravar la lucha contra el abuso sexual infantil al dificultar la identificación de víctimas reales, ya que las imágenes generadas por IA no siempre representan a personas reales.

Vacíos legales para la IA

Uno de los mayores desafíos para los fiscales es que la legislación actual no está diseñada para abordar de manera efectiva la creación de material ilícito generado puramente por IA.

Aunque la ley estadounidense establece que la pornografía infantil es ilegal, los casos donde no se puede identificar a una víctima real caen en un área gris legal. Esto deja a los fiscales recurriendo a leyes de obscenidad, como en el caso de Steven Anderegg, un ingeniero de software acusado de usar IA para generar imágenes explícitas de niños.

El caso de Anderegg, y otros similares, podría ser un punto de inflexión legal para Estados Unidos, ya que obligará a los tribunales a decidir cómo aplicar las leyes existentes a tecnologías emergentes.

La Corte Suprema de EE. UU. ya ha determinado en el pasado que las representaciones de menores generadas por computadora no son necesariamente ilegales, lo que podría complicar los esfuerzos del gobierno para lograr condenas basadas sólo en la moralidad o el repudio social hacia las imágenes generadas por IA.

¿Cómo lo está abordando la industria tecnológica?

Las grandes empresas de tecnología han sido señaladas por no tomar conciencia del peligro que supone la IA Generativa en este contexto. Por ello han comenzado a tomar medidas para prevenir el abuso de sus plataformas, obligadas de cierta manera por la presión de organizaciones que luchan contra el abuso infantil.

En julio de este año, compañías como Meta, Google, Microsoft y OpenAI se comprometieron con la organización Thorn para implementar principios de “seguridad por diseño”, incluyendo la detección de contenido generado por IA y la prohibición de usar imágenes de abuso sexual infantil en sus conjuntos de datos de entrenamiento.

Sin embargo, la aplicación de estos principios no es sencilla. Existen dudas sobre la efectividad de tecnologías como las marcas de agua para identificar imágenes generadas por IA, y muchas plataformas aún enfrentan problemas para moderar y eliminar deepfakes explícitos que involucran a menores. La creciente sofisticación de los delincuentes, sumada a la rapidez con la que evoluciona la tecnología, presenta un desafío constante para mantener las plataformas seguras.

¿Un problema para el futuro o una amenaza presente?

El uso de IA para generar imágenes de abuso sexual infantil no es un problema futuro, sino una amenaza presente que ya ocurre. Como lo advierte Rebecca Portnoff, de la organización Thorn, aún existe una ventana de oportunidad para actuar antes de que el problema se descontrole por completo. Sin embargo, esto requerirá una combinación de esfuerzos tanto del sector privado como de los legisladores, que deberán actualizar las leyes para abordar las nuevas realidades tecnológicas.

La IA Generativa, si no se regula y gestiona adecuadamente, puede convertirse en una herramienta poderosa para la explotación infantil, socavando las capacidades de las autoridades para combatir el problema.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies