Guadalupe Morales Rubio, diputada y vicecoordinadora del Partido Movimiento de Regeneración Nacional (Morena) en el Congreso de la Ciudad de México, presentó a finales de noviembre una propuesta para que se castigue a quienes difundan, exhiban y distribuyan imágenes, videos y audios con contenido sexual sin su consentimiento.
El proyecto de decreto plantea reformar el artículo 181 quintus del Código Penal de la Ciudad de México, por el uso de la Inteligencia Artificial (IA) para generar deepfakes de contenido sexual.
En la exposición de motivos, la diputada Morales explica que el mal uso de la IA plantea serias preocupaciones éticas y sociales.
“El uso de la IA en la manipulación de contenido sexual, a menudo conocido como deepfake, implica la creación de imágenes o videos falsos, donde los rostros de personas reales se superponen de manera realista en cuerpos de otras personas, o se generan completamente imágenes falsas de individuos que parecen reales. Estos medios manipulados pueden ser utilizados para producir contenido pornográfico falso, difamatorio o engañoso sin el consentimiento de las personas involucradas”, refiere en la propuesta.
Te recomendamos: Inteligencia Artificial, necesario regularla desde una perspectiva de derechos humanos
La legisladora argumentó que los deepfakes de contenido sexual pueden causar un daño irreparable a la reputación y la vida personal de los individuos, además de provocar consecuencias emocionales, psicológicas y sociales para las víctimas.
La propuesta de reforma contempla que a quien cometa este delito se le imponga una pena de cuatro a ocho años de prisión y una multa de quinientas a mil unidades de medida y actualización. Además, el castigo se agravará si se comete por un servidor público o si la víctima es menor de edad, adulto mayor, discapacitado, indígena o en situación de calle.
Morales Rubio puntualizó que se necesitan medidas legales y regulatorias más estrictas para abordar el uso indebido de la IA en la creación de contenido íntimo falso.
En la iniciativa expuso el caso de Diego “N”, un estudiante del Instituto Politécnico Nacional (IPN), que fue acusado por usar Inteligencia Artificial para comercializar fotos sexuales de sus compañeras. El acusado tenía en su poder 160 mil imágenes íntimas, videos y fotografías de alumnas de la Escuela Superior de Comercio y Administración (ESCA) plantel Santo Tomás del IPN, manipuladas con IA.
“Es esencial encontrar un equilibrio entre la innovación tecnológica y la protección de los derechos individuales y la integridad personal en un mundo digital en constante evolución”, señaló la diputada.