Enviado especial
San Francisco, California.- Una de las mayores demandas de las nuevas aplicaciones de Inteligencia Artificial (IA) es la enorme capacidad de cómputo que se requiere para procesar los datos y algoritmos que la componen. Para ello, AMD dio a conocer avances sobre su estrategia de plataforma IA, que incluye un portafolio de hardware desde la Nube hasta el Edge para desarrollar soluciones de Inteligencia Artificial escalables y generalizadas que le permitiría acceder a un mercado de 150 mil millones de dólares.
Lisa Su, CEO de AMD, explicó que la estrategia del fabricante de semiconductores se basa en tres elementos principales: un portafolio amplio de procesadores y soluciones adaptables para motores de cómputo; desarrollar y mejorar la plataforma de software para facilitar el despliegue; y colaboración estrecha con la industria para habilitar el ecosistema.
“No hay duda de que la IA será el impulsor clave del consumo de silicio en el futuro previsible, pero la mayor oportunidad está en el centro de datos y durante los últimos seis meses, aproximadamente, la amplia adopción de la IA Generativa con grandes modelos de lenguaje realmente ha llevado este crecimiento a un nivel superior”, afirmó Su.
En ese sentido, estima que la oportunidad de aceleradores para IA crecerá de aproximadamente 30 mil millones de dólares este año, hasta un total de 150 mil millones de dólares en 2027 a una tasa compuesta de crecimiento anual de 50 por ciento.
Durante la presentación de las nuevas soluciones de AMD en San Francisco, la compañía ofreció mayores detalles de la familia de aceleradores AMD Instinct MI300 Series, incluyendo MI300X, que afirma ser el acelerador más avanzado del mundo para IA Generativa.
El MI300X se basa en la arquitectura del acelerador AMD CDNA 3 de última generación, con capacidad para hasta 192 GB de memoria HBM3 para proporcionar la eficiencia de cómputo y memoria necesaria para modelos grandes de inferencia de lenguaje y cargas de trabajo de IA Generativa.
AMD asegura que la amplia memoria de este componente permite a los clientes adaptar modelos de lenguaje como Falcon-40B, un modelo de 40 mil millones de parámetros, en un solo acelerador de GPU MI300X.
AMD también presentó AMD Infinity Architecture Platform, que reúne ocho aceleradores MI300X en un diseño estándar de la industria para lo último en entrenamiento e inferencia de IA Generativa.
“Estamos realmente muy enfocados en hacer que sea fácil para nuestros clientes y socios desplegar, por lo que la plataforma Instinct realmente reduce las barreras para la adopción, junto al stack de software listo para la empresa. Sabemos que esto es tan importante que hemos logrado un gran progreso a través de nuestro trabajo con los marcos y los modelos”, afirmó.
El MI300X se estará entregando en pruebas a clientes clave a partir del tercer trimestre. AMD también anunció la disponibilidad de AMD Instinct MI300A, el primer acelerador de APU (Accelerated Processing Unit) para cargas de trabajo de HPC (cómputo de alto desempeño) e IA.
AMD presentó, asimismo, el ecosistema de software ROCm para aceleradores de centros de datos, destacando la preparación y las colaboraciones con líderes de la industria para reunir un ecosistema de software de IA abierto.
Durante la presentación, AMD anunció una mayor colaboración para el avance de IA, con la Fundación PyTorch, encargada de una de las principales librerías de IA y Machine Learning, así como con HuggingFace, comunidad de código abierto de IA.
Mejores redes en centros de datos
Adicionalmente, AMD exhibió la actualización de su portafolio para networking que incluye AMD Pensando DPU (Data Processing Unit), AMD Ultra Low Latency NIC y AMD Adaptive NIC.
Detalló que las DPU AMD Pensando combinan un stack de software con seguridad basada en “confianza cero” y un procesador de paquetes programable.
AMD destacó la próxima generación de su DPU con nombre en código “Giglio“, que tiene como objetivo brindar un mejor rendimiento y eficiencia energética a los clientes, en comparación con los productos de la generación actual. Se espera que esté disponible a finales de 2023.
La compañía presentó también “Siena”, parte de la línea EPYC, que estará enfocado en cargas de trabajo para telecomunicaciones y Edge. Se espera que este SoC esté disponible en la segunda mitad del año, aunque no dio mayores detalles del componente.