AI Hypercomputer: Google introduce nuevos chips diseñados para la era Agéntica

Las Vegas. Google Cloud introdujo el concepto de AI Hypercomputer para englobar la infraestructura integral diseñada para el ciclo de vida completo de la Inteligencia Artificial (IA). Este sistema incluye la octava generación de TPUs diseñados específicamente para la era Agéntica.

Según Amin Vahdat, vicepresidente senior y Chief Technologist de infraestructura de IA en Google, la era de los agentes de IA representa una demanda sin precedentes para la infraestructura tecnológica. El directivo aseguró que para resolver la misión de Google alrededor del cómputo, se debe resolver la inteligencia.

En ese sentido “la oportunidad es más grande que nunca, pero la infraestructura necesaria aún no existía completamente”, señaló Vahdat durante una presentación con medios.

Innovación en procesadores especializados

Para resolver este desafío, Google decidió establecer un pequeño equipo de trabajo que permitiera el diseño de componentes para atender la creciente demanda de cómputo, especialmente proveniente de nuevas cargas de trabajo como la IA.

Desde su presentación en 2015, la compañía ha presentado la renovación de sus chips con una cadencia anual. Este año, sin embargo, presentó la octava generación compuesta por dos variantes de TPUs, cada una optimizada para necesidades específicas:

El TPU 8t fue diseñado específicamente para el entrenamiento de modelos. Este nuevo chip ofrece casi tres veces el rendimiento de cómputo por pod respecto a generaciones anteriores. Con capacidad para escalar hasta 9,600 TPUs conectados en topología de torus 3D (estructura de interconexión donde los nodos forman una ‘dona 3D’). Esta nueva arquitectura proporciona 121 exaflops de cómputo FP4 (punto flotante) y 2 terabytes de memoria compartida en un solo “superpod”.

Según Google, este componente promete reducir el ciclo de desarrollo de modelos de frontera de meses a tan solo semanas. El cómputo entregado por estos componentes supera en 3 veces a los TPUs de la generación previa (Ironwood).

20260421 194748

Por su parte, el TPU 8i está optimizado para inferencia, incluyendo el trabajo de múltiples agentes. Este componente integra un motor de aceleración especializado que reduce la latencia en chip por 5 veces. Además, puede escalar hasta 1,152 TPUs en un solo pod, entregando 11.6 exaflops FP8, lo que representa un aumento de rendimiento de 9.8 veces frente a la generación anterior.

20260421 204337

Estos dos chips vienen acompañados del CPU Axion, chip basado en Arm diseñado por Google, pensado para manejar el complejo preprocesamiento de datos y la orquestación, de modo que los TPUs puedan recibir una correcta fuente de datos.

Vahdat explicó que Google se vio en la necesidad de diseñar este tipo de chips para resolver los cuellos de botella de los chips más tradicionales o de cómputo general (CPU) y así poder atender nuevos casos de uso demandantes de cómputo. Por ejemplo, aseguró que un servicio como la traducción por reconocimiento de voz habría requerido “construir dos o tres Googles completos” para permitir que cada usuario de la compañía pudiera interactuar por 30 segundos con el sistema.

Confiabilidad como prioridad

Vahdat destacó que uno de los mayores desafíos técnicos era resolver la confiabilidad al coordinar decenas de miles de chips a nanoescala. “Es un sistema nervioso donde un solo chip puede afectar todo el sistema. Los sistemas tradicionalmente fallan una vez al día, lo que puede llevar de horas a días la detección”, explicó.

Google busca superar el 97% de “goodput”, es decir, detectar y reconfigurar fallas rápidamente.

Agentic Data Cloud: contexto para la IA

Complementando el hardware, Google introdujo también su nueva solución Agentic Data Cloud, como una plataforma de datos que incluye:

  • Knowledge Catalog: Motor de contexto universal que integra datos estructurados y no estructurados
  • Data Agent Kit: Herramientas potenciadas por Gemini para científicos de datos
  • Nuevo Lightning Engine: Plataforma para el análisis de grandes cantidades de datos diseñado para Apache Spark con hasta 2 veces mejor rendimiento-precio
  • Cross-Cloud Lakehouse: Acceso unificado a datos multi-nube sin necesidad de migración

Casos de éxito empresarial

Citadel Securities, que negocia más de 500 mil millones de dólares diarios, logró ejecutar cargas de trabajo de 2 a 4 veces más rápido con un costo 30% menor. Vodafone utiliza la plataforma para lanzar cientos de agentes que resuelven proactivamente interrupciones, ahorrando millones anuales.