“Devastada, humillada, como si me hubieran arrancado una parte de mi dignidad sin mi consentimiento”. Así se sintió Isabella, una profesora de literatura de 34 años de edad, cuyos estudiantes tomaron sus fotos de redes sociales y crearon un video de contenido sexual a través de una aplicación de Inteligencia Artificial (IA).
Los deepfakes utilizan IA para crear videos o imágenes que parecen reales, pero que en realidad son manipulaciones digitales. En el mundo digital, esta práctica se ha convertido en una extensión de la violencia contra las mujeres, al ser utilizada para producir contenido sexual no consensuado que humilla y vulnera su dignidad.
Esta forma de violencia digital se conecta con el Día Internacional para la Eliminación de la Violencia contra la Mujer, que se conmemora el 25 de noviembre, y evidencia cómo las agresiones hacia las mujeres se extienden a entornos digitales, generando un impacto amplificado y difícil de controlar.
De acuerdo con datos del informe State of deepfakes 2023 de Security Hero, 99 por ciento de los deepfakes con fines pornográficos tienen como objetivo a las mujeres.
Este tipo de prácticas son especialmente preocupantes por tres razones fundamentales: la facilidad de acceso, el impacto de la violencia digital y la difusión masiva.
“Las herramientas para crear deepfakes son realmente accesibles, lo que permite que cualquier persona, con un mínimo de conocimiento técnico, pueda generar este tipo de contenido. Lo ideal sería que las plataformas que facilitan la creación de estas imágenes y videos implementaran restricciones desde el inicio del proceso. Sin embargo, esto aún no sucede”, explicó Catalina Moreno, codirectora de la Fundación Karisma, organización de la sociedad civil que busca que las tecnologías digitales protejan y avancen los derechos humanos fundamentales.
Por el contrario, Moreno asegura que los deepfakes son cada vez más convincentes, lo que dificulta que la mayoría de las personas distingan si un video es real o no. Esto contribuye a que el contenido manipulado sea tomado como verdadero, amplificando el daño.
La segunda preocupación se centra en la violencia digital y reputacional, ya que este tipo de contenido se ha convertido en una herramienta para acosar, difamar o dañar la reputación de las personas, especialmente de las mujeres. En casos como el de Isabella, no sólo afectó su privacidad, sino que también ha tenido un impacto profundo en su vida laboral, personal y emocional.
Por último, la difusión masiva de este tipo de contenido hace casi imposible controlar su propagación.
“Las redes sociales y las plataformas de mensajería facilitan que estos videos se viralicen, exponiendo a las víctimas a un público mucho mayor en cuestión de minutos”, detalló Moreno.
El caso de Isabella no es aislado. Por el contrario, forma parte de una estrategia pensada para avergonzar a las mujeres, especialmente a aquellas en la vida pública, como maestras, políticas, cantantes famosas como Taylor Swift y Karol G, o actrices de renombre como Jennifer Lawrence y Scarlett Johansson.
De hecho, un informe presentado por The Economist Intelligence Unit reporta que nueve de cada 10 mujeres han experimentado algún tipo de violencia en línea sólo en América Latina.
Sin embargo, aunque estos casos no son aislados, tampoco existen acciones claras contra los responsables. Por un lado, porque con la viralización rápida de este tipo de contenido, resulta muy complicado identificar a quien inició la difusión del video.
“Aunque los países cuentan con leyes que sancionan la violencia contra las mujeres y la vulneración de la protección de datos personales, todavía falta voluntad política para que las víctimas denuncien y para sancionar a quienes perpetran este tipo de prácticas”, aseguró Moreno.
Entre tanto, las consecuencias para las mujeres suelen ser minimizadas porque la ciudadanía, las autoridades y los gobiernos consideran que “no pasó en la vida real”.
“Sentí una humillación profunda, como si cada mirada que recibía estuviera juzgando mi actuar, uno que realmente no era mío. También me invadió la impotencia. No podía entender cómo algo tan monstruoso era posible, cómo alguien podía tomar mi rostro, una parte tan íntima de quién soy, y usarlo para desprestigiar mi trabajo. Sentí rabia hacia quien lo hizo, pero también hacia las personas que participaron de forma indirecta, aquellas que guardaron el video y lo compartieron después”, detalló Isabella.
Después de lo ocurrido, Isabella se sintió obligada a renunciar a su trabajo.
“Nunca me despidieron, pero nadie respetaba mis clases. Era como si los estudiantes ya no me tomaran en serio. Además, había profesores que hacían chistes al respecto, mientras que otros ni siquiera me dirigían la palabra. Renuncié porque era lo más amable que podía hacer por mí misma”, explicó Isabella.
Lo sucedido causó varios conflictos en la estabilidad mental de Isabella, con los que aún lucha día a día.
El rol de las plataformas de difusión
El desafío para las plataformas es equilibrar la libertad de expresión con la responsabilidad de prevenir el daño.
“No actuar frente a los deepfakes perpetúa la violencia digital. Las plataformas son guardianes del contenido que se publica y se comparte. Es necesario implementar políticas éticas, tecnologías avanzadas y un enfoque centrado en la protección de los derechos de las mujeres”, aseguró Catalina Moreno.
Es vital que las plataformas de redes sociales sean más eficientes en la detección y moderación de este tipo de contenido. “Muchas plataformas carecen de mecanismos avanzados para identificar deepfakes antes de que se difundan. Incluso cuando los detectan, las respuestas suelen ser lentas o insuficientes”, detalló Moreno.
Además, es necesario crear espacios propicios para hablar de esta problemática. Foros y sitios web que suelen albergar comunidades dedicadas a crear y compartir deepfakes reflejan la necesidad de hacer notar esta forma de violencia. Debido a su invisibilización, muchas mujeres víctimas terminan sintiéndose solas e indefensas.
Por otro lado, la ciudadanía también tiene un rol fundamental en evitar que estas violencias continúen. Esto implica no compartir videos creados con deepfakes ni contenido íntimo de mujeres sin su consentimiento. Cada vez que alguien difunde este material, se convierte en cómplice de una agresión que destruye vidas, carreras y dignidades.
Debemos empezar a cuestionarnos: ¿seremos parte de la solución o del problema de la IA?