Anthropic demanda al gobierno de Trump tras ser designada como un “riesgo”

Anthropic, compañía de Inteligencia Artificial (IA) detrás del famoso modelo Claude, presentó dos demandas judiciales contra el Departamento de Guerra y otras agencias federales del gobierno de los Estados Unidos, en las que alega ser víctima de represalias inconstitucionales por sus políticas de uso responsable de IA. El presidente estadounidense Donald Trump ordenó eliminar el uso de los modelos de Anthropic en oficinas federales, luego de que la empresa se negara a que su tecnología pudiera ser utilizada para vigilancia masiva y armas autónomas.

La compañía estadounidense de IA presentó dos demandas separadas: una en el Tribunal de Distrito de Estados Unidos para el Distrito Norte de California y otra en el Tribunal de Apelaciones del Circuito de Estados Unidos para Washington, D.C. La estrategia de múltiples jurisdicciones responde al uso por parte del Pentágono de diversas autoridades legales para invocar la designación de riesgo en la cadena de suministro.

En sus alegatos, Anthropic argumenta que las acciones gubernamentales constituyen una “campaña ilegal de represalias” que va más allá de una disputa contractual normal. Según la empresa, estas medidas violan múltiples leyes federales, incluyendo la Ley de Procedimiento Administrativo (APA) y disposiciones del Código de Estados Unidos, además de infringir derechos constitucionales fundamentales.

La demanda sostiene que el gobierno federal ha violado la Primera Enmienda al castigar a Anthropic por ejercer su libertad de expresión y derecho de petición al expresar opiniones sobre el uso responsable de la IA.

Además, argumenta violaciones a la Quinta Enmienda, al considerar que las sanciones fueron impuestas sin aviso previo ni audiencia, negándole el debido proceso legal. La compañía también cuestiona que las acciones presidenciales exceden la autoridad constitucional del Artículo II, calificándolas como acciones “ultra vires” sin fundamento legal.

Según la demanda, la designación como riesgo de seguridad nacional y las prohibiciones resultantes están “poniendo en peligro cientos de millones de dólares” en contratos existentes y futuros. La firma señala que estas acciones dañan irreparablemente su reputación, reducen sus ingresos y afectan sus relaciones con clientes y socios.

Anthropic afirma que ya se ha convertido en el modelo de IA más utilizado en el Departamento de Guerra y en sistemas clasificados, para lo cual había desarrollado modelos especializados, incluyendo Claude Gov, específicamente para necesidades militares y de inteligencia con restricciones apropiadas.

Por ello, solicita que los tribunales anulen las órdenes y sanciones gubernamentales, prohíban a las agencias implementar las acciones impugnadas y rescindan todas las directrices relacionadas. Anthropic argumenta que la designación fue arbitraria, sin evidencia de sabotaje o amenaza adversaria, y motivada por razones ideológicas en lugar de preocupaciones legítimas de seguridad nacional.

Origen del conflicto

El conflicto entre el gobierno estadounidense y Anthropic surgió durante las negociaciones con el Departamento de Guerra –antes Departamento de Defensa– sobre el uso de Claude en aplicaciones militares. La empresa, fundada en 2021 con un enfoque prioritario en seguridad y responsabilidad, mantiene políticas que prohíben ciertos usos específicos de su tecnología, incluyendo el desarrollo de sistemas de guerra autónoma letal sin supervisión humana y la vigilancia masiva de ciudadanos sin consentimiento.

Anthropic había firmado un acuerdo inicial con la Oficina Digital y de Inteligencia Artificial por hasta 200 millones de dólares para desarrollar casos de uso y prototipos de IA. Sin embargo, en 2025 y 2026, el Departamento de Guerra cambió su postura al exigir que la empresa eliminara completamente sus restricciones de uso y permitiera “todo uso legal” de su tecnología, incluyendo despliegues en la plataforma “GenAI.mil”.

En su defensa, la oficina de gobierno argumentó que todo se centra “en un principio fundamental, que las fuerzas armadas puedan usar la tecnología para todos los fines legales”, por lo que el gobierno no podía permitir que “un proveedor se inmiscuya en la cadena de mando restringiendo el uso legal de una capacidad crítica y poniendo en riesgo a nuestros combatientes”.

Finalmente, el Pentágono comunicó formalmente a Anthropic que había sido designada como un “riesgo en la cadena de suministro de seguridad nacional“. El 27 de febrero de 2026, el presidente Donald Trump emitió una directiva presidencial ordenando cesar el uso de la tecnología de Anthropic en todas las agencias federales.

Las agencias afectadas incluyen al Departamento de Guerra, el Departamento del Tesoro, el Departamento de Estado, la Administración de Servicios Generales (GSA) y el Departamento de Salud y Servicios Humanos (HHS), entre otras. Estas entidades retiraron contratos existentes y prohibieron futuras adquisiciones de tecnología de Anthropic.

Otras compañías proveedoras del gobierno como Lockheed Martin, conocida por suministrar tecnología militar y aeroespacial, anunciaron que seguirán las instrucciones del gobierno estadounidense, por lo que comenzarían a disminuir el uso del modelo Claude en sus propias soluciones.