Descubren que la IA se entrena con un catálogo de miles de imágenes de abuso sexual a menores

ABC Tecnología

Más de 3.000 imágenes de abuso sexual infantil forman parte del catálogo de LAION-5B, una importante base de datos con la que entrenan herramientas de inteligencia artificial (IA) como Stable Diffusion. Este hallazgo forma parte de una investigación de la Universidad de Stanford. En concreto, fue el Observatorio de Internet de Stanford quienes trabajaron junto con el Centro Canadiense para la Protección Infantil y otras organizaciones para identificar el material ilegal. Luego del hallazgo, informaron de los enlaces de las fotografías originales a las autoridades.

LAION-5B es una base de datos con más de 5.000 millones de imágenes extraídas de forma automática de la red. Esta ‘mancha’ en el catálogo agiliza que la IA pueda generar montajes de pornografía infantil, y a la vez descarta la teoría de cómo se pensaba que trabajan estas herramientas para producirlas: combinando pornografía de adultos con fotografías genéricas de niños. Pero los expertos se han topado con que, en realidad, no es así. Ya cuentan en su ‘cerebro’ con ejemplos claros de abusos con los que recrear y producir montajes.

La organización sin ánimo de lucro alemana, LAION, dueña del catálogo, matiza en su página web que su base de datos «no está curada» y que la «naturaleza no seleccionada del conjunto de datos» de los enlaces que contiene pueden dar lugar a «contenidos incómodos y perturbadores».

Leer más.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies