Oracle y AMD anunciaron una nueva colaboración para facilitar el escalamiento de soluciones basadas en Inteligencia Artificial (IA), mediante el despliegue de miles de GPUs Instinct en los próximos dos años. Oracle Cloud Infrastructure (OCI), servicio de Nube de la compañía, lanzará el primer superclúster de IA impulsado por GPUs AMD Instinct MI450, con un despliegue inicial de 50,000 tarjetas a partir del tercer trimestre de 2026 y una expansión a partir de 2027.
El nuevo acuerdo es una extensión de la colaboración entre ambas compañías, incluyendo la oferta de GPUs Instinct MI300X en OCI desde 2024, además de las más modernas Instinct MI355X, las cuales también estarán disponibles en el superclúster de escala zetta.
En ese sentido, los nuevos supercúmulos planeados por OCI para IA se basarán en el diseño del rack “Helios” de AMD, que incluye GPU AMD Instinct Serie MI450, CPU AMD EPYC de próxima generación con nombre en código “Venice” y redes avanzadas AMD Pensando™ de próxima generación con nombre en código “Vulcano”. Esta arquitectura de rack, optimizada verticalmente, está diseñada para ofrecer el máximo rendimiento, escalabilidad y eficiencia energética para el entrenamiento e inferencia de IA a gran escala.
“Nuestros clientes están desarrollando algunas de las aplicaciones de IA más ambiciosas del mundo, lo que requiere una infraestructura robusta, escalable y de alto rendimiento. Al combinar las últimas innovaciones en procesadores AMD con la plataforma segura y flexible de OCI y la red avanzada impulsada por Oracle Acceleron, los clientes pueden superar los límites con confianza”, afirma Mahesh Thiagarajan, vicepresidente ejecutivo de OCI.
Entre las principales características y beneficios de la nueva arquitectura AMD para IA se encuentran las GPUs AMD Instinct Serie MI450 con hasta 432 GB de HBM4 y 20 TB/s de ancho de banda de memoria, permitiendo el entrenamiento de modelos un 50% más grandes. Por su parte, el diseño de rack “Helios” optimiza la densidad de rendimiento y la eficiencia energética con 72 GPUs refrigeradas por líquido y conectividad de escalado vertical y horizontal.
Esta infraestructura se complementa con redes convergentes aceleradas por DPUs (data processing unit) para la ingesta de datos a velocidad de línea y redes escalables para IA, con la capacidad de equipar cada GPU con hasta tres tarjetas de red AMD Pensando “Vulcano” de 800 Gbps. Finalmente, la pila de software de código abierto AMD ROCm facilita la innovación y la migración de cargas de trabajo de IA y HPC.