Cuando apareció DeepNude, una nueva aplicación con Inteligencia Artificial (IA) que prometía desvestir a cualquier fémina con un sólo clic, Internet comenzó a inundarse de fotografías de mujeres desnudas sin su consentimiento.
Semanas después del informe de Motherboard, la aplicación fue retirada por su creador y eliminada de GitHub (la plataforma donde fue publicada). Sin embargo, se lograron filtrar copias con código abierto, que muchos aprovecharon para extorsionar y acosar a mujeres.
Aunque DeepNude utiliza Inteligencia Artificial, su gran problema no es el uso de esta tecnología, sino que refleja una antigua tendencia sobre el control del cuerpo y sexualidad de la mujer, como herramienta para avergonzarla.
Este tipo de prácticas existen desde hace tiempo, desde las fotografías manipuladas con Photoshop, hasta varias películas que fomentan escenas donde los hombres espían a mujeres cuando se desvisten o se bañan, sin su consentimiento.
No obstante, cuando los hombres aparecen desnudos, rara vez son tema de conversación. Cuando se filtraron fotografías íntimas de Jennifer Lawrence, se vio afectada su imagen pública por años; pero cuando las fotos de Kanye West salieron a la luz, nadie lo ubicó en el radar.
La abogada especialista en casos de porno venganza, Carrie Goldberg, dice que existe un gran vacío legal sobre cómo se tratan los deepfakes. Actualmente, las leyes que penalizan la pornografía no consensuada se limitan a las imágenes reales, no a las falsas o creadas con IA.