Inteligencia Artificial o Ignorancia Artificial: cómo los motores de búsqueda promueven la ciencia racial en pleno siglo XXI
Una investigación reciente reveló que los motores de búsqueda que utilizan Inteligencia Artificial, como los de Google y Microsoft, están reproduciendo teorías racistas desacreditadas, ampliando su alcance al difundir esta desinformación como veraz.
Con la creciente integración de la Inteligencia Artificial (IA) en los motores de búsqueda de Internet, surge un problema alarmante: la propagación de sesgos raciales profundamente arraigados, sustentados en datos de baja calidad y teorías desacreditadas que impulsan la “ciencia racial” y la falsa idea de la superioridad de las personas de raza blanca.
Este fenómeno se ilustra claramente en herramientas de IA de empresas como Google, Microsoft y Perplexity, que, al responder preguntas sobre temas sensibles como los puntajes de coeficiente intelectual (CI) nacionales, recurren erróneamente a investigaciones racistas para respaldar teorías pseudocientíficas sobre la supremacía racial.
En una investigación reciente, Patrik Hermansson, investigador del grupo antirracismo Hope Not Hate, con sede en el Reino Unido, descubrió que los motores de búsqueda con IA generaban respuestas de CI basadas en los datos sesgados de Richard Lynn, quien fue presidente del Pioneer Fund, un grupo fundado en 1937 por simpatizantes nazis estadounidenses con el objetivo de promover la supremacía blanca y la “mejora racial”.
Según un informe de Wired, Hermansson halló que estas cifras, manipuladas y popularizadas durante décadas por el Pioneer Fund, seguían siendo citadas sin ningún filtro por sistemas de IA, incluso después de ser desacreditadas.
Por ejemplo, al buscar “coeficiente intelectual de Pakistán”, la herramienta de Google arrojaba un puntaje promedio de 80, mientras que para Sierra Leona el resultado era de 45.07 y para Kenia, 75.2. Hermansson reconoció rápidamente estas cifras, provenientes del conjunto de datos desacreditados de Lynn, quien defendía que los CI más bajos en ciertos países eran prueba de inferioridad racial.
Estas cifras no sólo son incorrectas, sino que derivan de metodologías defectuosas. Por ejemplo, la estimación de CI en Eritrea se basa únicamente en niños huérfanos, mientras que el resultado para Botswana se obtiene a partir de una muestra limitada de 104 estudiantes de secundaria evaluados en inglés. La cifra para Somalia proviene de una muestra de refugiados en un campo de Kenia.
Estas muestras poco representativas fueron sistemáticamente utilizadas por Lynn para construir una narrativa racialmente sesgada. La investigación de Hermansson reveló que estos datos no sólo habían sobrevivido en plataformas online, sino que también habían sido absorbidos en la infraestructura de IA que millones de personas utilizan diariamente, aumentando así su alcance y el peligro de que sean aceptados como hechos científicos.
¿Por qué es tan grave esta situación?
La IA, en su papel como agregadora y sintetizadora de datos, tiene una capacidad sin precedentes para difundir información. Pero esta capacidad se convierte en un arma de doble filo cuando los modelos de IA no filtran ni descalifican información que, aunque desacreditada, sigue accesible en la web.
Un usuario sin contexto podría interpretar las respuestas generadas por la IA como verdades indiscutibles, ya que estas herramientas rara vez citan fuentes y presentan la información como absoluta, sin ofrecer al usuario la oportunidad de cuestionar su veracidad o calidad.
La falta de control en el uso de datos con los que se entrenan estos sistemas refleja también un problema profundo: el sesgo algorítmico. Este sesgo permite que la IA difunda información sin contexto y sin aclarar su procedencia. Esto plantea una cuestión ética sobre cómo la IA, incluso sin intencionalidad directa, puede llegar a radicalizar a sus usuarios al validar teorías falsas y racistas como hechos.
¿Qué están haciendo los gigantes tecnológicos para abordar este problema?
Google ha respondido a la controversia afirmando que sus sistemas no funcionaron como se esperaba, añadiendo que la información generada violaba sus políticas y que ya había sido retirada.
Microsoft, por su parte, defendió el funcionamiento de su IA mediante el uso de “citas vinculadas para permitir a los usuarios profundizar en la información”, una medida que, si bien es un paso en la dirección correcta, aún plantea dudas sobre la elección de fuentes que terminan destacando en los resultados.
Sin embargo, la persistencia del problema refleja un desafío más profundo en el diseño y desarrollo ético de la Inteligencia Artificial: ¿cómo filtrar información problemática en el contexto de un sesgo algorítmico sin perder precisión en las consultas?
Entre las soluciones que las empresas de IA podrían implementar están la reformulación de políticas de contenido, el fortalecimiento de filtros que separen contenido desinformativo del de alta calidad y el desarrollo de auditorías algorítmicas constantes que detecten sesgos en tiempo real.
La IA tiene el potencial de revolucionar el acceso y el procesamiento de la información, pero cuando se convierte en una herramienta que valida ideas radicales sin filtro, sus beneficios se ven eclipsados por el daño que causa. El riesgo de utilizar y normalizar estudios desacreditados, como los del Pioneer Fund, no sólo afecta a los usuarios que consultan estos datos, sino que perpetúa un modelo de desinformación que refuerza y promueve la discriminación y la desigualdad.