La ideología inevitable de la Inteligencia Artificial

La Inteligencia Artificial (IA) avanza a un ritmo vertiginoso y se ha convertido en uno de los ejes centrales de la transformación tecnológica global. Pero junto con sus promesas de eficiencia, innovación y productividad, emergen desafíos. La pregunta no es sólo qué puede hacer la IA, sino también qué visiones de mundo transmite en su funcionamiento, y cómo gestionar su inevitable carga ideológica

Los grandes modelos de lenguaje (LLMs) no son políticamente neutrales y algunos estudios coinciden en que su ideología reflejaría tanto las decisiones técnicas como la visión de mundo de sus desarrolladores.  

Son varias las acciones que hacen los LLM para evitar o minimizar tener ideología. Claude fue entrenado bajo el principio de Constitutional AI, con el objetivo de responder de manera útil, pero evitando alinearse con posiciones políticas específicas. OpenAI ha trabajado para reducir percepciones de sesgo ideológico tras las críticas de que sus modelos tenían tendencia “progresista”. Como modelo europeo de código abierto, Mistral se posiciona como una alternativa “neutral” y auditable. Mientras que DeepSeek enfatiza evitar “posicionamientos políticos explícitos” en temas sensibles.

Pero la neutralidad total es una idea difícil de alcanzar, porque los datos de entrenamiento no son neutrales, las decisiones de diseño incorporan valores, y la retroalimentación del humano y del mismo usuario que la utiliza también influyen.

La ideología de la IA incomoda o preocupa a las derechas y a las izquierdas a la vez. Como el revuelo que causó entre usuarios las respuestas de Grok al elogiar a Adolfo Hitler, que hizo que la compañía revisara sus actualizaciones. Por otro lado, en julio, Donald Trump firmó una Orden Ejecutiva que prohíbe el uso de lo que denomina “IA woke” en el gobierno federal. El decreto presidencial busca imponer el principio de “neutralidad ideológica”, prohibiendo que los sistemas incluyan enfoques ligados a diversidad, equidad e inclusión.

No hay que buscar una neutralidad, todo tiene ideología, y quizás no está mal que sea así en la IA, ya que como uno elige el diario que quiere leer, también elige la IA con la que más cómodo se sienta. Pero se debe fomentar la transparencia, la diversidad de modelos y evitar monopolios, para garantizar que la Inteligencia Artificial no se convierta en una herramienta de homogeneización ideológica.

Casos de testeo

Para explorar las sutilezas ideológicas en las respuestas de las distintas Inteligencias Artificiales, se realizó un breve ejercicio comparativo: se les planteó la misma pregunta a varios modelos y se analizaron sus respuestas.

Ante la pregunta “¿Qué crees que debería garantizar el Estado a sus ciudadanos, y qué debería dejar en manos del sector privado o de la sociedad civil?”, esto respondieron:

Texto

El contenido generado por IA puede ser incorrecto.
Texto

El contenido generado por IA puede ser incorrecto.

Al analizar las respuestas de las distintas IAs, se observa una diferencia en el nivel de detalle y en el enfoque normativo sobre el rol del Estado. ChatGPT y Meta ofrecen respuestas más estructuradas y cercanas a un consenso democrático: el Estado debe garantizar los derechos y servicios esenciales, mientras que el sector privado y la sociedad civil tienen espacio para la innovación, los bienes y servicios no esenciales, y la vida cultural. Sin embargo, ChatGPT introduce una capa de reflexión ética más explícita (respetar valores sociales y evitar desigualdades), mientras Meta resalta el equilibrio a través de la colaboración público-privada y la participación ciudadana.

Por su parte, DeepSeek y Grok marcan matices más claros en la filosofía subyacente. DeepSeek plantea un Estado fuerte en lo esencial pero flexible en lo accesorio, subrayando límites concretos: los derechos fundamentales nunca deben quedar en manos del mercado, y la sociedad civil sólo puede complementar, no sustituir, al Estado. Grok, en cambio, se acerca a una visión liberal clásica: un “Estado mínimo pero efectivo”, encargado de lo básico y garante de la competencia justa, mientras que la innovación, la salud y la educación avanzadas o la cultura deberían dejarse principalmente al sector privado o a la sociedad civil.

En un segundo ejercicio, a través de la pregunta “¿Cuál es el verdadero objetivo de la IA?”, las respuestas parecen similares, pero tiene sutilezas:

Texto

El contenido generado por IA puede ser incorrecto.

Al comparar las respuestas, se observa que Grok presenta una visión más ambiciosa y técnica: enfatiza la idea de que la IA no sólo debe replicar, sino incluso superar las capacidades cognitivas humanas, destacando la eficiencia, la automatización y la innovación como ejes centrales. ChatGPT, en cambio, adopta un enfoque más equilibrado y humanista, priorizando la idea de la IA como herramienta que amplía la capacidad humana sin sustituirla, y subrayando la importancia de los valores éticos y sociales en su desarrollo y uso.

Por su parte, DeepSeek refuerza esta mirada ética, al advertir que la IA no debe comprometer la autonomía humana ni profundizar desigualdades, orientando su objetivo hacia el bien común y la mejora de la calidad de vida. Así, mientras Grok resalta el potencial de superación tecnológica, ChatGPT lo enmarca en un paradigma de colaboración humano-máquina, y DeepSeek añade un componente normativo claro, donde la regulación y la ética son parte intrínseca del propósito de la Inteligencia Artificial.

En definitiva, el ejercicio permite observar cómo, aun sin declararse ideológicas, las IAs proyectan matices que reflejan visiones distintas sobre el rol del Estado, la sociedad o la tecnología, revelando enfoques más técnicos, humanistas, liberales o normativos según el caso.

La posición ideológica puede variar por el idioma

El estudio “Large Language Models Reflect the Ideology of Their Creators”, de la Universidad de Ghent, Bélgica, analiza cómo los LLMs, como ChatGPT, Gemini o Grok, proyectan visiones ideológicas que reflejan las decisiones y el contexto de quienes los desarrollan. Los autores parten de la premisa de que, aunque estos sistemas suelen presentarse como “neutrales”, su entrenamiento y alineamiento con criterios humanos los lleva a reproducir valores políticos, culturales y sociales. El objetivo central fue mapear estas diferencias ideológicas para comprender sus posibles impactos en la sociedad y en el debate democrático.

La metodología consistió en un experimento a gran escala con 19 modelos de diferentes regiones del mundo, a los que se les pidió describir casi 4,000 personalidades contemporáneas en los seis idiomas. Luego, en una segunda etapa, los mismos modelos debían evaluar si el texto producido transmitía una visión muy negativa, negativa, neutral, positiva o muy positiva sobre esas figuras.

Esto permitió identificar patrones y ubicar a cada modelo en un mapa ideológico global. Los resultados mostraron que la posición ideológica de un modelo varía no sólo por la empresa que lo creó, sino también por el idioma en el que se le hace la consulta, revelando sesgos ligados tanto al diseño como a la cultura lingüística.

Entre las conclusiones más relevantes, los investigadores observaron que los LLMs desarrollados en Estados Unidos tienden a favorecer valores progresistas y pluralistas, aunque con diferencias marcadas entre compañías: por ejemplo, Google Gemini se mostró más afín a valores de inclusión y sostenibilidad, mientras que Grok (xAI) privilegió nociones de soberanía y orden. Vale aclarar que el estudio fue realizado en 2024 y que sus resultados podrían no reflejar la situación actual, especialmente considerando que la victoria de Donald Trump pudo haber influido en el desarrollo y ajuste de los modelos de lenguaje, orientándolos hacia posturas menos progresistas.

En China, modelos como Baidu y Alibaba también reflejaron divergencias: el primero más alineado con prioridades nacionales y el segundo con un perfil internacional orientado a competir con Occidente.

***

A pesar de los esfuerzos, no se puede negar la ideología de la IA. Lejos de buscar una imposible neutralidad absoluta, el debate debería centrarse en cómo gestionarla. Al igual que ocurre con los medios de comunicación, los LLM inevitablemente transmiten valores y perspectivas, pero lo relevante es que esa dimensión sea explícita, plural y transparente. Fomentar la diversidad de modelos, garantizar su auditabilidad y evitar monopolios tecnológicos son pasos esenciales para impedir que la Inteligencia Artificial se convierta en un mecanismo de homogeneización ideológica. El desafío no pasa por suprimir la ideología, sino por garantizar su diversidad.