Brasil | Big Tech se abstienen de responsabilidad en propaganda electoral

Facebook, Google y YouTube defienden que la responsabilidad sobre el contenido impulsado y/o manipulado es del autor.

Ler em português

El tercer y último día de la audiencia pública del Tribunal Superior Electoral (TSE), este jueves 25 de enero, se dedicó al tema de protección de datos y uso de Inteligencia Artificial en las elecciones de Brasil este 2024. Representantes de Facebook (Meta), Google (Alphabet) y YouTube se presentaron como policías digitales, eximiéndose de la responsabilidad sobre la difusión de propaganda electoral manipulada y noticias falsas (fake news).

Google, que recibió 125.3 millones de reales de campañas en las elecciones presidenciales de 2022, 18 veces más que en las elecciones de 2018, se basó en el régimen legal previsto en la ley electoral en su declaración.

Tais Cristina Tesser, responsable de lo contencioso de Google Brasil, defendió el refuerzo del párrafo que atribuye la responsabilidad por el impulso de las propagandas al anunciante, es decir, partidos, candidatos, coaliciones y federaciones. “Nosotros, en Google y YouTube, estamos atentos a la necesidad de combatir la desinformación”, declaró.

Relacionado: Janja da Silva exige responsabilidad de plataformas digitales ante hackeo

El borrador de la resolución del TSE sugiere que se prohíba la promoción de contenido difamatorio utilizando palabras clave del adversario, mientras que Google propone que se elimine este párrafo (Art. 28, párrafo 7-A).

Tesser argumentó que “la existencia de anuncios impulsados de esta manera no representa ningún tipo de intervención, confusión o desviación del votante, ya que no afecta los resultados orgánicos del buscador”.

La gestora también destacó que es responsabilidad de los anunciantes detener la publicación de la propaganda, así como la responsabilidad de no impulsar contenido que difunda hechos sabidamente falsos o gravemente descontextualizados.

Contenido manipulado

Alana Ruiz Riso Lobo, responsable de políticas públicas de YouTube, anunció que la plataforma requerirá que los anunciantes revelen cuando creen contenido alterado o sintético que parezca realista, incluso mediante el uso de herramientas de Inteligencia Artificial.

Los contenidos sintéticos o manipulados que violen nuestras políticas con desinformación, violencia, discurso de acoso, que inciten al público a interferir en el proceso democrático o que cuestionen la integridad del sistema electoral están prohibidos y estarán sujetos a eliminación y otras penalidades“, sentenció.

La representante también sugirió la inclusión de un párrafo en la Resolución que especifique que la responsabilidad de identificar el contenido fabricado o manipulado en la publicidad electoral recae en la persona responsable de su elaboración.

Destacado: Ataques del 8 de enero en Brasil refuerzan debate sobre regulación de Big Tech

Acusado mundialmente de parcialidad en las elecciones, especialmente en los Estados Unidos, Facebook, representado por su abogado Rodrigo Ruf Martins, solamente recordó su decisión de prohibir el disparo de publicaciones masivas desde las elecciones de 2020 y sugirió la inclusión de un párrafo para aclarar cómo debe fundamentarse la decisión judicial que ordena la eliminación de contenidos repetitivos e idénticos.

Propone que esta decisión haga referencia a un precedente del TSE que justifique la eliminación de estos contenidos. Además, sugirió mencionar el artículo 38, párrafo cuarto de la resolución de propaganda, estableciendo la obligación de indicar una URL para la eliminación de estos contenidos repetidos.

Al igual que Google, en las elecciones de 2022, Facebook recaudó 123.7 millones de reales, atendiendo a más de 5.4 mil candidaturas, cinco veces más que en las elecciones municipales de 2018.