En medio de un creciente desarrollo de soluciones basadas en Inteligencia Artificial (IA), que siguen un interés de las empresas por incrementar su productividad con esta tecnología, la más reciente edición de Hot Chips incluye los más recientes lanzamientos de semiconductores enfocados en cargas de trabajo de IA, especialmente para la inferencia y entrenamiento de modelos.
IBM aprovechó el evento para presentar la arquitectura del próximo procesador IBM Telum II y del acelerador IBM Spyre. Con estos nuevos chips, la compañía espera atender la demanda de soluciones de bajo consumo, seguras y escalables, impulsada por el actual proceso de transición, en el que grandes modelos de lenguaje (LLM) están pasando de la fase de prueba de concepto a la de producción.
En ese sentido, explica que estas nuevas tecnologías presentadas están diseñadas para escalar significativamente la capacidad de procesamiento a través de la próxima generación de sistemas mainframe IBM Z.
El nuevo procesador IBM Telum II cuenta con una mayor frecuencia, capacidad de memoria, un crecimiento del 40 por ciento en caché y núcleo acelerador de IA integrado, así como una Unidad de Procesamiento de Datos (DPU) conectada de forma coherente frente al chip Telum de primera generación. Este nuevo DPU integrado está diseñado para acelerar complejos protocolos de E/S para redes y almacenamiento en el mainframe.
Digital Metrics | Market share global de semiconductores 2023
La compañía introdujo también el acelerador IBM Spyre, el cual proporciona capacidad de cálculo de IA adicional para complementar el procesador Telum II. En conjunto, Telum II y Spyre forman una arquitectura escalable para soportar métodos de ensamble de modelado de IA, la práctica de combinar múltiples modelos de IA de Aprendizaje Automático o Aprendizaje Profundo con codificadores LLM.
El chip acelerador IBM Spyre, presentado en la conferencia Hot Chips 2024, se suministrará como opción adicional. Cada chip acelerador se conecta a través de un adaptador PCIe de 75 vatios. Al igual que otras tarjetas PCIe, el acelerador Spyre es escalable para adaptarse a las necesidades del cliente.
Una conferencia sobre tecnología de punta dirigida a arquitectos de procesadores y sistemas de la industria y el mundo académico se ha convertido en un foro clave para el mercado de la informática de centros de datos, que mueve un billón de dólares.
Nvidia introduce tarjetas Blackwell
Por su parte, Nvidia presentó su esperada línea de tarjetas NVIDIA Blackwell, cuya principal característica es que reúne múltiples chips, sistemas y software NVIDIA CUDA para impulsar la próxima generación de IA en distintos casos de uso, sectores y países.
La compañía explica que la tarjeta está compuesta por múltiples chips NVIDIA, entre ellos la GPU Blackwell, la CPU Grace, la unidad de procesamiento de datos BlueField, la tarjeta de interfaz de red ConnectX, el conmutador NVLink, el conmutador Ethernet Spectrum y el conmutador InfiniBand Quantum.
Esta nueva serie incluye el nuevo chip para IA, GB200 NVL72, la cual es una solución multinodo a escala de rack con refrigeración líquida que conecta 72 GPU Blackwell y 36 CPU Grace.
Recientemente, The Information reportó que los nuevos chips IA B100, B200 y GB200 estarían enfrentando retrasos en su producción. Esto implicaría que la introducción al mercado de la serie Blackwell sería hasta el segundo trimestre de 2025, en contra de la fecha originalmente prevista para el primer trimestre.
Otros reportes apuntan también a que Nvidia estaría esperando una fuerte demanda por estas nuevas tarjetas, por lo que habría solicitado un aumento del 25 por ciento de la producción original a TSMC, además de sumar a nuevos proveedores como KYEC y ASE Technology.
Según un informe de United Daily News (UDN), Nvidia esperaba enviar un total de 40 mil unidades Blackwell, la cual se ha ampliado a 60 mil. Según el mismo medio, el chip NVL72 presentado en Hot Chips tendría un precio en el mercado de 3 millones de dólares.