La Policía del Estado italiano arrestó a un hombre de 55 años de edad acusado de producir y almacenar más de 900 imágenes de pornografía infantil generadas con herramientas de Inteligencia Artificial (IA).
De acuerdo con los peritos, el material incautado incluía 900 archivos extremadamente realistas, pese a que no correspondían a personas reales. Las imágenes habían sido generadas mediante redes neuronales entrenadas con datos y fotografías de origen ilícito.
La operación se realizó en Venecia a finales de octubre y fue coordinada por la fiscalía local y el centro de seguridad cibernética de la ciudad, luego de una alerta internacional sobre actividades sospechosas en línea.
La investigación comenzó tras una señal emitida por una organización internacional dedicada a la protección de menores en Internet. Las autoridades rastrearon las conexiones digitales del sospechoso y lograron localizar el equipo informático instalado en su domicilio. Durante el registro, los agentes encontraron dispositivos de alta capacidad utilizados para crear imágenes sintéticas de menores y generar contenido de pornofrafía infantil.
El detenido utilizaba modelos de IA, que no fueron especificados por los investigadores, capaces de combinar y transformar fragmentos de imágenes para crear escenas nuevas e hiperrealistas. Estas herramientas, conocidas como redes generativas adversarias (GAN), pueden producir resultados visuales casi indistinguibles de una fotografía auténtica.
Recomendamos: Deepfakes, una herramienta de opresión contra las mujeres
La Fiscalía de Venecia confirmó que el hombre fue arrestado bajo el cargo de producción de pornografía infantil. Sin embargo, las investigaciones continúan para determinar si las imágenes fueron compartidas o comercializadas en redes clandestinas, y además se evalúa la posibilidad de que el acusado haya entrenado sus propios modelos de IA, lo que aumentaría su nivel de responsabilidad penal.
Al caso de Venecia se suma una creciente tendencia internacional de creación de imágenes falsas o deepfakes a través del uso de herramientas de IA que ha generado alertas, incluso entre los mismos adolescentes que temen que se use su imagen para crear contenido sexual falso con IA.
La situación continúa siendo un desafío para las autoridades judiciales mundiales debido a que la generación de material sexual de menores mediante IA no siempre involucra víctimas identificables, lo que complica la tipificación penal.
Los investigadores consideran que “el caso representa un preocupante escenario evolutivo del cibercrimen, en el que la IA se convierte en un recurso para producir y difundir material ilegal con una apariencia de veracidad que dificulta su detección”, detalla un medio local.