Brasil eleva penas por violencia contra mujeres con uso de Inteligencia Artificial

El Senado Federal aprobó esta semana un proyecto de ley que aumenta la pena para los delitos de violencia psicológica contra la mujer cometidos con el uso de Inteligencia Artificial (IA) o tecnologías que alteren la imagen o el sonido de la víctima.

Actualmente, la pena para este delito es de seis meses a dos años de reclusión y multa. Con la nueva propuesta, esta pena se aumentará a la mitad cuando se utilicen estas tecnologías, pudiendo llegar hasta tres años de reclusión.

La relatora del proyecto, la senadora Daniella Ribeiro (PSD-PB), destacó la importancia de la medida, especialmente en el mes en que se celebra el Día Internacional de la Mujer.

Resaltó que la Inteligencia Artificial ha sido utilizada de manera criminal para extorsionar a mujeres y manchar su imagen ante la sociedad, por lo que es necesario aumentar las penas para frenar estas prácticas.

La violencia psicológica contra la mujer está definida en el Código Penal como cualquier acción que cause daño emocional, perjudique o perturbe su pleno desarrollo, o que tenga como objetivo degradar o controlar sus acciones, comportamientos, creencias y decisiones.

Esto puede ocurrir a través de amenazas, coacción, humillación, manipulación, aislamiento, chantaje, ridiculización, limitación del derecho de ir y venir o cualquier otro medio que cause daño a la salud psicológica y a la autodeterminación de la mujer.

Taylor Swift, parlamentarias y adolescentes: las víctimas

En enero de 2024, imágenes generadas por Inteligencia Artificial que mostraban falsamente a la cantante Taylor Swift en situaciones explícitas fueron ampliamente difundidas en línea. Estas imágenes provocaron indignación pública y reavivaron debates sobre los riesgos asociados con el uso indebido de la IA.

Organizaciones como la Rape, Abuse & Incest National Network y el sindicato SAG-AFTRA condenaron enérgicamente la creación y distribución de estas imágenes. Además, el CEO de Microsoft, Satya Nadella, calificó el incidente como “alarmante y terrible”, destacando la necesidad de un entorno en línea seguro.

En noviembre de 2023, alumnos de colegios privados de Río de Janeiro utilizaron herramientas de IA para crear imágenes íntimas falsas de compañeras de clase. La Delegacia de Proteção à Criança e ao Adolescente (DPCA) llevó a cabo una operación que resultó en 16 órdenes de allanamiento e incautación de teléfonos móviles y computadoras de estudiantes de los colegios Santo Agostinho y Eleva Barra da Tijuca.

Otro ejemplo de esta práctica ocurrió durante las elecciones municipales de 2024 en Brasil, donde diversas candidatas fueron blanco de ataques mediante el uso de IA para crear imágenes falsas con contenido pornográfico, con el objetivo de humillarlas y desacreditarlas públicamente.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies