Google toma acción contra anuncios políticos generados por Inteligencia Artificial

Se espera que los deep fakes o contenido sintético generen una avalancha de desinformación durante las próximas elecciones presidenciales.

Crédito: Adobe Stock

A partir de noviembre, Google exigirá que todos los anuncios políticos que sean promocionados en sus plataformas revelen la utilización de imágenes, videos o audios generados por Inteligencia Artificial (IA).

La nueva política de publicidad política de Google exige colocar una etiqueta clara y visible en donde se advierta a las personas que el anuncio muestra contenido sintético que “representa a personas o eventos reales o de aspecto realista de forma no auténtica”.

Los anuncios que requieren de un aviso visible sobre contenido generado con IA son imágenes o videos alterados donde se muestre a una persona diciendo o haciendo algo que no hizo o representando un evento de forma realista que nunca ocurrió.

Google señala que el contenido que ha sido alterado con IA con técnicas de edición básicas como cambiar las dimensiones, aplicar correcciones de color, iluminación o corregir los ojos rojos no serán sujetos a la etiqueta de contenido sintético.

Recomendado: Deepfakes, la mayor preocupación de la IA: Brad Smith

Las nuevas reglas de Google para la publicidad política llegan un año antes de que arranquen las próximas elecciones presidenciales en Estados Unidos. El gigante tecnológico busca prepararse para un aumento de la desinformación en Internet con las campañas políticas, debido al creciente uso de herramientas de IA Generativa que producen contenido sintético fácilmente.

Los deep fakes han generado una gran preocupación entre políticos y activistas, ya que este contenido sintético puede ser utilizado para manipular y engañar a los votantes haciendo parecer que un candidato dijo o hizo algo que no sucedió en la realidad.

Este mismo año han surgido varias imágenes y videos creados mediante IA, los cuales muestran a personajes políticos en situaciones falsas pero que el público ha llegado a confundir como verdaderas.

Un ejemplo de ello fue en marzo, cuando se compartió una imagen en redes sociales donde se mostraba el supuesto arresto de Donald Trump. En el mismo mes circuló un video en donde el presidente de Ucrania, Volodymyr Zelensky, se rendía ante Rusia.

Si bien las imágenes y videos falsificados con Inteligencia Artificial no es algo nuevo, la velocidad en que han avanzado las herramientas de IA Generativa mostrando una mayor sofisticación con contenidos que pueden ser fácilmente confundidos como reales, representa un riesgo potencial para los procesos democráticos de todos los países del mundo.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies