Microsoft limita herramienta de IA usada para generar deepfakes de Taylor Swift

Microsoft refuerza las barreras de seguridad en su herramienta Designer tras el incidente de la difusión de imágenes explícitas de la cantante Taylor Swift, generadas con Inteligencia Artificial.

Microsoft ha tomado medidas de seguridad adicionales en su herramienta gratuita de generación de imágenes con Inteligencia Artificial, Designer.

Estas medidas fueron tomadas en respuesta a informes que sugerían que la herramienta fue utilizada para crear deepfakes sexualmente explícitos de la cantante Taylor Swift, los cuales se volvieron virales en la red social X la semana pasada.

La acción de Microsoft fue desencadenada por un informe de 404 Media, el cual reveló que las imágenes de Taylor Swift se originaron en el foro 4chan y un canal de Telegram, donde los usuarios aprovecharon una laguna en Designer para crear contenido falso y explícito de mujeres y celebridades sin su consentimiento.

También lee: La violencia digital: las modalidades están cambiando

Según el informe, los usuarios de dichos foros descubrieron que al escribir mal el nombre de la artista o al redactar una descripción ligeramente sugerente, la herramienta les permitía eludir las protecciones contra el uso de palabras clave con términos sexuales.

En respuesta a este informe, Microsoft aplicó un parche de seguridad que ahora restringe la capacidad de Designer únicamente a la creación de imágenes genéricas. Sin embargo, la empresa no pudo confirmar que las imágenes de Swift en X fueron generadas con la herramienta.

En una entrevista con NBC News, el Director Ejecutivo de Microsoft, Satya Nadella, se comprometió a implementar más barreras de seguridad en sus sistemas de IA para prevenir la creación de contenido dañino.

Además de Microsoft, la red social X también tomó acciones sobre el caso y bloqueó temporalmente las búsquedas relacionadas con Swift, eliminó las imágenes virales de la cantante y otras celebridades y suspendió las cuentas que difundieron los deepfakes.

Microsoft enfrenta desafíos en la prevención del mal uso de la IA

A pesar de las medidas tomadas por las empresas tecnológicas, los usuarios que forman parte del canal de Telegram aún comparten contenido sexual generado por IA proveniente de diversas plataformas que están disponibles en Internet y que no tienen controles estrictos.

Recomendamos: Legisladores critican a líderes de redes sociales por su “fracaso” en proteger a los niños en línea

En otro incidente relacionado, un ingeniero de Microsoft, Shane Jones, alertó a la empresa sobre una vulnerabilidad en la plataforma DALL-E 3 de OpenAI, que permite la generación de deepfakes violentos y sexuales similares a los de Taylor Swift, según informó por primera vez GeekWire.

Ante la falta de respuesta de OpenAI y Microsoft, Jones presentó una denuncia en el Capitolio, instando al gobierno a crear un sistema para reportar y rastrear vulnerabilidades en sistemas de IA.

En respuesta a esta denuncia, un vocero  de Microsoft afirmó que sus investigadores no encontraron que las técnicas reportadas por Jones eludieran los filtros de seguridad. Además, anunció la implementación de una plataforma interna de informes para que los empleados expresen sus inquietudes sobre los modelos de IA antes de hacerlas públicas.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies