Jensen Huang, CEO de Nvidia, reveló los planes de la compañía para utilizar los chips de memoria de alto ancho de banda (HBM) fabricados por Samsung, un nuevo mercado en el que la compañía surcoreana podría beneficiarse tras recibir el respaldo del mayor fabricante de chips para tareas de Inteligencia Artificial (IA).
Durante la pasada conferencia para desarrolladores GTC de Nvidia, Huang mostró abiertamente su respaldo a Samsung Electronics, que podría convertirse en uno de los proveedores encargados para fabricar los chips HBM utilizados en las unidades de procesamiento gráfico (GPU) para IA.
“La memoria HBM es muy complicada y el valor añadido es muy alto. Estamos gastando mucho dinero en HBM”, declaró Huang en una rueda de prensa en San José, California, según cita The Korea Herald.
Sin embargo, aclaró que Nvidia aún “no está utilizando la HBM3E de Samsung. Estoy verificándolo”. Esto en referencia a que estaría realizando pruebas de cualificación de los componentes fabricados por la compañía surcoreana y su compatibilidad con los componentes diseñados por Nvidia.
La memoria de alto ancho de banda (HBM) es una interfaz emergente para memorias dinámicas síncronas de acceso aleatorio (SDRAM) apiladas en 3D. Este formato permite apilar varias capas de chips mediante canales verticales denominados TSV (through-silicon vias).
Por un lado, este formato implica nuevos beneficios como una mayor cantidad de memoria empacada en un espacio más pequeño, así como una menor distancia entre procesador y memoria. Sin embargo, también implica retos en cuanto a la fabricación, el empaquetado y la difusión del calor.
La tecnología está siendo inicialmente impulsada por SK Hynix, quien introdujo los primeros componentes en el mercado, en conjunto con Samsung y AMD. Recibir el respaldo de Nvidia, cuyas GPUs se han convertido en uno de los componentes más populares para impulsar la fiebre de Inteligencia Artificial (IA), le permitiría a Samsung retar el liderazgo actual de SK Hynix.
Desde 2022, SK Hynix ya había sido anunciado como uno de los principales proveedores de HBM3 para la GPU H100 enfocada en cargas de trabajo de IA. Más recientemente, Nvidia anunció que también había iniciado pruebas de la versión extendida HBM3E de ocho pilas de SK, cuyos primeros componentes comenzarían a ser entregados a finales de marzo.
Hace un mes, Samsung anunció que había completado el desarrollo de HBM3E de 12 pilas con una capacidad de memoria de 36 GB, con muestras que ya comenzaron a llegar a algunos clientes y con la expectativa de comenzar su producción en masa durante la primera mitad de este año. Casi al mismo tiempo, Micron anunció que había comenzado la producción en masa de su HBM3E de 8 pilas con 24 GB.
De acuerdo con cifras de TrendForce, SK hynix sería el actual líder del mercado de HBM, con una participación cercana al 53 por ciento, seguida por Samsung con 38 por ciento, mientras que Micron Technology aportaría el 9 por ciento restante.