Nvidia apuesta por la inferencia de IA: Jensen Huang estima un potencial de un billón de dólares en ingresos para 2027
Durante GTC, Nvidia anunció el lanzamiento de una serie de innovaciones que van desde la IA Física, la IA distribuida con 5G y un stack para plataformas de agentes hasta la simulación de fábricas de IA y el cómputo espacial.
El cofundador y CEO de Nvidia, Jensen Huang, afirmó que la oportunidad de ingresos por sus chips de Inteligencia Artificial (IA) podría alcanzar al menos el billón (trillion, en inglés) de dólares hacia 2027, mientras delineó una estrategia para competir de forma más agresiva en el mercado de los sistemas de IA en tiempo real.
Esta estimación duplica la predicción de 500,000 mdd para 2026 que Nvidia mencionó para sus chips de IA Blackwell y Rubin durante su última conferencia de resultados en febrero. Pese a que algunos analistas predijeron el estallido de la burbuja de IA en 2025, Huang prevé un incremento aún mayor de los ingresos.
Durante la jornada inaugural de la Conferencia anual de desarrolladores GTC en San José, Huang presentó un nuevo procesador central y un sistema de IA basado en tecnología de Groq, una startup de chips de la que Nvidia obtuvo una licencia de tecnología por 17,000 millones de dólares en diciembre, para inferencia.
Las medidas forman parte de la estrategia de Huang para consolidar la posición de la compañía en el cómputo de inferencia, el proceso de respuesta a consultas, donde sus procesadores gráficos se enfrentan a una mayor competencia de las unidades centrales de procesamiento y los procesadores personalizados de empresas como Google.
Huang explicó que el sector de la IA se está expandiendo más allá de la IA Generativa, hacia la IA cíclica y la inferencia. “El punto de inflexión de la inferencia ha llegado”, declaró Huang. “Está diseñada para la inferencia, para esta carga de trabajo específica. Y esta carga de trabajo es la impulsa las fábricas de IA”, agregó.
Durante la Conferencia, Nvidia también presentó DSX Air, una plataforma de simulación que permite a las empresas crear gemelos digitales de fábricas de IA antes de su construcción física.

Utilizada por CoreWeave, DSX Air es una plataforma de software como servicio (SaaS) que permite simular implementaciones complejas mediante arquitecturas de referencias validadas para computación, redes, almacenamiento, orquestación y seguridad, incluso antes de desempaquetar un solo servidor.
“Gracias a nuestro amplio alcance y nuestra extensa base de usuarios, podemos reducir los costos de computación, aumentar la escala y mejorar la velocidad para todos de forma continua”, explicó.
NemoClaw para OpenClaw
Durante GTC, Nvidia anunció el stack Nvidia NemoClaw para la plataforma de agentes OpenClaw, que permite a los usuarios instalar modelos Nvidia Nemotron y el nuevo entorno de ejecución Nvidia OpenShell con un solo comando, lo que añade controles de privacidad y seguridad para que los agentes de IA autónomos y autoevolutivos sean más fiables, escalables y accesibles para todo el mundo.
NemoClaw permite a las empresas crear sus propios agentes de IA. OpenClaw gestiona el entorno de ejecución, la memoria y las funcionalidades, mientras que NemoClaw incluye modelos, herramientas y marcos de código abierto, tanto en la nube como en equipos Nvidia RTX, DGX Station y DGX Spark.
Huang aseguró que OpenClaw y NemoClaw revolucionarán el sector, al igual que otras tecnologías como Kubernetes lo hicieron con la Nube y HTML.
IA distribuida con T-Mobile y Nokia
Nvidia y T-Mobile anunciaron una colaboración con Nokia para implementar aplicaciones de IA física en redes de IA distribuidas en el borde de la red. El objetivo de la colaboración es demostrar cómo la infraestructura AI-RAN puede transformar una red inalámbrica en una plataforma para el cómputo distribuido de IA de alto rendimiento en el Edge.
“Las redes de telecomunicaciones están evolucionando hacia una infraestructura de IA que permite a millones de dispositivos —desde agentes de IA de visión hasta robots y vehículos autónomos— ver, oír y actuar en tiempo real”, declaró Huang. “Al convertir la red 5G en una plataforma distribuida de IA con T-Mobile y Nokia, estamos creando un modelo escalable para la infraestructura global de IA en el borde de la red”, complementó.
IA Física al mundo real
Nvidia asimismo anunció una asociación con líderes mundiales de la robótica, entre los que se encuentran desarrolladores de cerebros, gigantes de la robótica industrial y quirúrgica, y pioneros de la robótica humanoide como ABB Robotics, AGIBOT, Agility, CMR Surgical, FANUC, Figure, Hexagon Robotics, KUKA, Medtronic, Skild AI, Universal Robots, World Labs y YASKAWA, para que aprovechen su tecnología para desarrollar e implementar IA física a gran escala.
Los nuevos modelos de Nvidia para acelerar la transición a la robótica inteligente son: Nvidia Cosmos, Nvidia Isaac y Nvidia Isaac GR00T N.
Cómputo espacial
Nvidia también presentó su módulo Space-1 Vera Rubin para la construcción de centros de datos orbitales, un proyecto muy importante para Elon Musk. El nuevo módulo, junto a IGX Thot y Jetson, ofrecen rendimiento e inferencia de IA en el Borde para centros de datos orbitales, inteligencia geoespacial y operaciones espaciales autónomas.
Finalmente, este lunes también se dio a conocer la Coalición Nvidia Nemotro, una colaboración global entre creadores de modelos abiertos y desarrolladores de IA para fomentar la investigación y el intercambio de experiencia, datos y cómputo, en aras de acelerar la innovación en todo el ecosistema global de IA. En simultáneo, Nvidia anunció la expansión de sus familias de modelos abiertos para impulsar la próxima ola de la atención de la salud agéntica y física impulsada por IA.