Especial: Titanes de la geopolítica digital
Diferencias en la visión sobre el desarrollo de una Inteligencia Artificial (IA) segura y alineada con valores humanos, así nació Anthropic. Una compañía creada en 2021 por un grupo de exinvestigadores de OpenAI, entre ellos, los hermanos Dario y Daniela Amodei, Jared Kaplan, Jack Clark y Ben Mann, bajo el modelo public-benefit corporation (PBC), que obliga legalmente a considerar el beneficio público junto con las ganancias en sus decisiones comerciales.
Por ello, desde sus inicios Anthropic evitó lanzar modelos sin someterlos previamente a rigurosos procesos de seguridad internos para mantener su enfoque central en la “Constitutional AI”, un marco que utiliza principios éticos predefinidos, como la Declaración Universal de Derechos Humanos, para guiar la generación de texto y reducir daños potenciales.
Además, cuenta con un “Long‑Term Benefit Trust” (beneficios de confianza a largo plazo), un mecanismo que da voto en la junta a representantes dedicados a garantizar el compromiso de largo plazo con la seguridad y bienestar humano a través de la IA.
El compromiso de Anthropic por la seguridad de la Inteligencia Artificial es evidente. De hecho, la compañía invierte en investigación profunda sobre cómo “ablandar la caja negra” de los modelos de IA, un término que se refiere a sistemas cuyos procesos internos son opacos o difíciles de interpretar, incluso para sus propios creadores. Es decir, aunque se pueda observar qué datos se ingresan y qué resultados se obtienen, no siempre es claro cómo o por qué se llegó a determinada conclusión.
Esta práctica se conecta con el objetivo de Anthropic de tener sistemas que puedan explicar su lógica, con lo cual es posible reducir los riesgos de sesgos, errores o manipulaciones ocultas de los modelos de IA, que en áreas como justicia, salud o gobernanza, la falta de explicabilidad puede llevar a decisiones injustas o peligrosas.
En 2024, Anthropic desarrolló técnicas de dictionary learning, capaces de identificar características neuronales, como conceptos visuales, que explican decisiones internas de su modelo de lenguaje grande (LLM) Claude. Esto permite análisis más precisos y posibilidad de intervención en comportamientos potencialmente problemáticos.
La familia Claude
El producto estrella de la empresa es el modelo conversacional Claude, que debutó en 2023. Meses después, ese mismo año, se lanzó Claude 2, con mejoras en seguridad y funcionalidad pública.
En marzo de 2024 apareció la serie Claude 3, que incluyó los modelos Haiku, Sonnet y Opus, con capacidades multimodales y mayor rendimiento en razonamiento complejo.
En mayo de 2025, Anthropic presentó Claude 4, con dos versiones principales Opus 4 y Sonnet 4, las cuales ofrecen mejoras sustanciales en razonamiento de largo plazo, planificación, uso de herramientas externas y capacidad de memoria expandida que incluyen casos de hasta 200,000 tokens para trabajar con documentos extensos o procesos complejos.
Opus 4 ha sido probado con tareas intensas: desde modelado financiero hasta un experimento curioso en el que jugó Pokémon Red de forma autónoma durante 24 horas, demostrando su enfoque “agéntico” y capacidad para ejecutar acciones encadenadas sin supervisión constante.
Claude también funciona para servicios financieros, con una variante afinada para el sector que automatiza análisis de mercado, cumplimiento normativo, modelado financiero y due diligence, conectándose con plataformas como Databricks, Snowflake y S&P Global, sin entrenar con datos de clientes, preservando propiedad intelectual, al menos en la teoría.
Sin embargo, en julio de 2025 Anthropic fue demandada por los autores Andrea Bartz, Charles Graeber y Kirk Wallace Johnson por haber descargado millones de libros de sitios piratas –como Books3, LibGen y PiLiMi– y por haber adquirido copias físicas que luego digitalizó para entrenar su modelo Claude.
Si bien el juez federal William Alsup reconoció que el entrenamiento de modelos con estas obras fue “altamente transformativo” y, por tanto, calificó como uso justo bajo el estándar del Copyright Act, también condenó la creación de una especie de biblioteca general permanente con obras pirateadas, con el objetivo de contar con un “recurso general” para usos futuros, más allá del entrenamiento puntual de modelos de IA.
Aunque Claude es el producto más relevante de Anthropic, su propuesta de valor va más allá de un modelo conversacional. La compañía ha construido un ecosistema de herramientas y funcionalidades que amplifican el impacto de su IA, permitiendo no sólo interactuar con lenguaje natural, sino también automatizar tareas, construir aplicaciones, integrar datos empresariales y desarrollar soluciones personalizadas para gobiernos y empresas.
Uno de los desarrollos más notables es Claude Tool Use, una funcionalidad que permite al modelo interactuar con herramientas externas, ejecutar llamadas a APIs, procesar flujos automatizados y actuar como un agente coordinador de subprocesos. Esta capacidad convierte a Claude en un asistente operativo, capaz de ejecutar tareas complejas que antes requerían intervención humana o programación directa.
En la misma línea, Anthropic ha lanzado Claude Apps, una función en versión beta que permite a los usuarios crear aplicaciones completas directamente desde el chat, con sólo describir lo que quieren. La herramienta genera el código y muestra el resultado en tiempo real, facilitando el prototipado rápido de juegos, asistentes o soluciones personalizadas, todo sin salir del entorno conversacional. Los usuarios pueden compartir sus apps y el costo del cómputo se atribuye a quien usa la app, no a quien la crea.
Otra herramienta destacada es Claude Code, orientada al desarrollo de software. Esta función permite ejecutar código en lenguajes como Python dentro de entornos seguros, manejar comandos del sistema operativo y controlar elementos de la interfaz de usuario, como hacer clics o capturar pantallas.
Para clientes empresariales, Anthropic ha creado la Claude Enterprise Suite, una oferta robusta que incluye mayores niveles de seguridad, autenticación con SSO, integración con plataformas corporativas como GitHub y contextos de conversación extendidos que pueden llegar a los 200,000 tokens. Además, bajo el nombre Claude Gov, la empresa ha empezado a ofrecer despliegues personalizados para organismos gubernamentales de Estados Unidos, con énfasis en seguridad, trazabilidad y cumplimiento normativo.
En términos de conectividad e interoperabilidad, destaca el desarrollo del Model Context Protocol (MCP), un protocolo abierto propuesto por Anthropic para conectar a Claude con bases de datos y sistemas empresariales como Slack, Stripe o Postgres, de manera segura y controlada. MCP permite mantener un flujo de trabajo asistido por IA sin comprometer la privacidad ni abrir puertas a fugas de datos sensibles.
La propuesta se completa con herramientas de eficiencia como caching de prompts, procesamiento por lotes y soporte para documentos extensos. Estas características no sólo mejoran la velocidad y el costo de operación, sino que también permiten a Claude mantener el contexto en proyectos complejos y prolongados, algo especialmente útil en áreas como derecho, investigación académica o asesoría técnica.
Expansión geográfica y apuesta por Europa
En 2024, Anthropic emprendió una expansión segura y directa en Europa. Actualmente tiene oficinas en Londres, Dublín y un centro de investigación en Zúrich, con planes de contratar más de 100 personas adicionales en ingeniería, ventas, I+D y operaciones.
Guillaume Princen fue nombrado como jefe de la región Europa, Oriente Medio y África (EMEA) reforzando su compromiso en el desarrollo de talentos locales y cumplimiento regulatorio, especialmente con miras a la Ley de Inteligencia Artificial de la UE.
Sin duda, adaptarse a la Ley de IA es un movimiento estratégico, también implica capacidad de moldear políticas públicas desde dentro y competir con proveedores locales, lo que puede generar tensiones regulatorias y monopolización de capacidades avanzadas en ciertos mercados.