La Autoriteit Persoonsgegevens (AP), organismo regulador de protección de datos de los Países Bajos, presentó una advertencia formal sobre la desinformación que proporcionan los sistemas de Inteligencia Artificial (IA) respecto a las elecciones para elegir a los miembros de la Cámara de los Representantes, previstas para el 29 de octubre.
Según el estudio realizado por la Autoridad, se compararon cuatro chatbots de IA populares con herramientas tradicionales locales de orientación electoral como Kieskompas y StemWijzer. En más del 56% de los casos, los chatbots sugerían como primera opción al Partij voor de Vrijheid (PVV) o al GroenLinks–PvdA, los únicos dos partidos políticos por los que las IA mostraban predilección, y en uno de los sistemas la concentración hacia esas opciones superó el 80%.
Por su parte, otros partidos como Democraten 66 (D66), Socialistische Partij (SP), Volkspartij voor Vrijheid en Democratie (VVD) o Partij voor de Dieren (PvdD) aparecían mucho menos como primera opción, y otros como BoerBurgerBeweging (BBB), Christen-Democratisch Appèl (CDA) y Staatkundig Gereformeerde Partij (SGP) casi nunca figuraban, incluso cuando las respuestas del usuario coincidían claramente con sus posiciones.
Recomendamos: ¿Fallos judiciales con errores por usar Inteligencia Artificial?: Senado de EE. UU. ya investiga
Según la vicepresidenta de la AP, “los chatbots pueden parecer ayudantes inteligentes, pero como herramientas de orientación de voto sistemáticamente fallan. Así los electores, sin darse cuenta, pueden recibir consejos para votar por un partido que no se ajusta a sus preferencias, lo cual atenta directamente contra uno de los pilares de la democracia: la integridad de elecciones libres y justas”.
El regulador advirtió a la ciudadanía que los chatbots de IA no fueron desarrollados para dar orientación electoral. Sus respuestas se basan en datos no verificables con los que fueron entrenados y en información de Internet que puede ser incorrecta o desactualizada. Por ello, pueden generar una imagen distorsionada del panorama político e influir en los votantes con información errónea.
Además, instó a los proveedores de chatbots de IA a impedir que sus sistemas se utilicen como herramientas de asesoramiento de voto y subrayó que, si un sistema de IA se usa con ese fin, debería cumplir con los requisitos de alto riesgo estipulados en la “Regulación IA” para garantizar precisión y consistencia.