Con una valoración de 5 billones de dólares, Nvidia sale de compras para forjar alianzas estratégicas
En lo que va de 2025, Nvidia ha anunciado múltiples alianzas estratégicas especialmente orientadas a cimentar su posición en el creciente mercado de la Inteligencia Artificial (IA). Ya no se trata únicamente del entrenamiento de grandes modelos de lenguaje (LLM), donde la compañía se convirtió en una de las principales beneficiarias por la venta de GPUs y aceleradores, sino que ahora también busca atender los mercados de inferencia a través de múltiples industrias de la mano de socios y expertos.
La era de la IA nos ha traído no sólo chatbots que ofrecen respuestas inmediatas o que compensan la falta de interacción humana, sino que también ha llenado las noticias con increíbles cifras de inversión y gasto de capital, desde Centros de Datos de 500,000 millones de dólares, a compañías como Nvidia que hoy superan los 5 billones de dólares de valor de mercado.
Durante la más reciente edición del GTC, Jensen Huang, CEO de Nvidia, adelantó que la compañía ya registra pedidos por hasta 500,000 millones de dólares para los primeros meses de 2026, incluyendo sus GPUs bajo arquitectura Blackwell, y preórdenes para chips de arquitectura Rubin, aún por ser presentada oficialmente en 2026.
Tan sólo el segundo trimestre fiscal de 2026, terminado el pasado julio, los ingresos por Centros de Datos de Nvidia se incrementaron en 56% año con año hasta un total de 41.1 mil millones de dólares, representando 87% de sus ingresos totales y opacando significativamente a otras áreas como profesional y videojuegos.
Según datos de IoT Analytics, Nvidia acapara actualmente más del 90% de las GPUs vendidas para Centros de Datos, superando ampliamente a sus competidores como AMD (4%), que ha logrado posicionar lentamente su serie de aceleradores Instinct, o al gigante Intel (1%), que enfrentó múltiples desafíos de producción y desarrollo en la introducción de su línea Gaudi.
Buena parte de este crecimiento de Nvidia se debe a la posición de la compañía en las cargas de trabajo de entrenamiento, donde GPUs como la H100 y la H200 se convirtieron en las más populares entre hiperescaladores y compañías de IA como OpenAI.
Ahora, Nvidia está utilizando este enorme acceso a capital para forjar alianzas estratégicas con socios que le permitan extender su presencia más allá del entrenamiento de modelos. Conforme empresas y usuarios adoptan asistentes y otras soluciones basadas en IA, se espera que la inferencia se convierta en la siguiente oportunidad de negocio para las compañías del sector.
El propio Huang desestimó las afirmaciones de que Nvidia debería seguir enfocada en el entrenamiento, donde ya tiene una posición de liderazgo. Conforme el mercado de la IA pasa de las etapas de pre entrenamiento, hacia post entrenamiento, y ahora a pensamiento o razonamiento, en la forma de un chatbot de IA, por ejemplo, esta última también demanda “cantidades increíbles de cómputo”, explicó.
“Escucho a la gente decir que la inferencia es fácil. ¿Pero cómo pensar puede ser fácil? Regurgitar contenido memorizado es fácil, regurgitar las tablas de multiplicar es fácil. Pensar es difícil. Esta es la razón del por qué estas tres escalas, que avanzan a toda velocidad, han puesto tanta presión sobre la cantidad de cómputo”, dijo durante su presentación.
Como ejemplo, se refirió a los múltiples modelos y asistentes de IA que hoy están en el mercado, como Claude o Cursor –utilizado por la propia Nvidia para programar IA–, que han llegado a un punto de inflexión en el que se han vuelto lo suficientemente útiles como para que la gente pague por ellas.
En ese sentido, algunas de las nuevas inversiones de la compañía están enfocadas en atender este mercado, donde el razonamiento sobre los datos y el contexto demandará mayor cómputo para tareas específicas, desde indicaciones básicas de cualquier usuario, hasta tareas de investigación básica, optimización de redes de telecomunicaciones o soluciones empresariales en general.
Además, muchas de las inversiones anunciadas le permiten consolidar un papel dual como proveedor e inversor para la industria. Por un lado, Nvidia se beneficia de asegurar los clientes requeridos para mantener su ritmo de crecimiento y posicionamiento de sus productos para IA, pero al mismo tiempo, obtiene beneficios indirectos a través de la adquisición de una porción del capital de sus propios clientes.
La inversión más significativa hasta ahora es un monto comprometido de hasta 100,000 millones de dólares en OpenAI, destinada a la construcción de megacentros de datos para IA, con implementación de sistemas Nvidia equivalentes a al menos 10 gigavatios de potencia. Esta inversión se realizará progresivamente a partir de la segunda mitad de 2026.
Aunque OpenAI ha firmado otros acuerdos con fabricantes de chips como Broadcom y AMD para garantizar su acceso a nueva infraestructura, la inversión de Nvidia sería la más grande en términos financieros y de infraestructura. Conforme ChatGPT avanza en sus planes de extender su asistente a nuevos casos de uso, este acuerdo garantiza que Nvidia se beneficia tanto del flujo de nuevos ingresos como de nuevas inversiones por adquisición de infraestructura.
Más allá de los chatbots
Nvidia también invirtió 5,000 millones de dólares en Intel, cuya alianza se centrará en la fabricación de productos conjuntos, con las GPUs de Nvidia y las CPUs de Intel, comunicadas por la solución NVLink. Aunque la colaboración incluye al segmento de Centros de Datos, la alianza también buscará llevar al mercado de consumo nuevos sistemas en chip (SoCs) x86 que integran chiplets de GPU Nvidia RTX a ser instalados en PCs para hogares y empresas.
Mediante esta alianza, el diseñador de chips busca extender la presencia de su portafolio más allá de los mercados especializados de entrenamiento y dar soluciones más accesibles –tanto en términos económicos, como facilidad de uso– para hogares y empresas.
Más recientemente, Nvidia oficializó una inversión de 1,000 millones de dólares en Nokia, lo que representa aproximadamente 2.9% del capital de la empresa. El acuerdo contempla el desarrollo conjunto de tecnología 6G y soluciones IA para telecomunicaciones, el uso de chips avanzados de Nvidia, y la integración de productos Nokia en la futura infraestructura del fabricante para redes y Centros de Datos.
Huang fue claro en que esta inversión busca consolidar el desarrollo de la tecnología inalámbrica de próxima generación desde Estados Unidos, luego haber perdido terreno durante la expansión de la conectividad 4G.
Entre otras inversiones, el diseñador de chips también participó en la compra (con socios) de Aligned Data Centers, la mayor en la historia del sector, valorada en 40,000 millones de dólares; destinó 500 millones de dólares en la startup de coches autónomos Wayve; y otros 500 millones de libras (667.7 millones de dólares) en Nscale, proveedor de servicios en la Nube del Reino Unido.
Nvidia también ha participado activamente como inversionista en el financiamiento de startups relacionadas con IA, muchas de las cuales también son sus propios clientes, como xAI de Elon Musk, Thinking Machines Lab, Scale AI y Perplexity.
Además, ha funcionado como inversor líder en rondas de financiamiento de unicornios de IA como Uniphore, que recaudó 260 millones de dólares; Reflection.Ai, que logró financiamiento por 2 mil millones de dólares, y David AI, que obtuvo 50 millones de dólares.
Aunque este tipo de movimientos son tomados por algunos expertos como la señal de una posible burbuja de IA, Huang descartó que exista tal burbuja, ya que dentro de los múltiples servicios de IA actualmente en el mercado, “estamos usando varios y pagando felizmente por ellos”, dijo en una entrevista en Bloomberg TV.