Siendo uno de los dos principales proveedores de aceleradores y GPUs para el desarrollo de la Inteligencia Artificial (IA), AMD ha buscado nuevas asociaciones estratégicas que permitan impulsar la competencia del segmento a través de la diversificación de plataformas. En entrevista con DPL News, directivos apuntaron a las universidades como un componente clave de esta estrategia, donde se forma el talento que desarrollará la IA del futuro.
Keith Strier, vicepresidente Senior de Mercados Globales de IA en AMD, explicó que el impulso de la IA proviene en muchos casos de las universidades y laboratorios, siendo “una de las fuerzas impulsoras de la era moderna de la IA que se cruza con la industria y con el gobierno”.
“Nuestro lema corporativo es ‘Together We Advance’, lo que significa que todo gira en torno a las alianzas. Somos selectivos y debemos enfocar nuestros recursos, pero asociarnos con nuevas empresas, nuevas universidades, nuevos gobiernos y nuevas entidades es fundamental para nuestra capacidad de crecer y llegar a todos los rincones del mundo”, aseguró.
Relacionado: AMD firma acuerdos con universidades chilenas para provisión de capacidad de cómputo
AMD firmó recientemente dos acuerdos clave con las principales instituciones universitarias de Chile. Con el Laboratorio Nacional de Computación de Alto Rendimiento (NLHPC) de la Universidad de Chile firmó un acuerdo para proveer componentes para la supercomputadora Leftraru 2; mientras que con el Centro Nacional de Inteligencia Artificial de Chile (CENIA) de la Universidad Pontificia Católica de Chile, firmó un acuerdo para la provisión de capacidad de cómputo para múltiples proyectos de IA.
Aunque el punto central de estas colaboraciones es la de proveer horas de cómputo y componentes para los proyectos de ambas instituciones, según Nicolás Cánovas, director General de AMD para América Latina, la segunda prioridad es que ambas conozcan el funcionamiento del software y plataforma abierta de AMD, lo que representa una relevante transferencia de contenido.

“Estos acuerdos con universidades son una apuesta, es una visión a largo plazo, porque la estrategia de ecosistema abierto resuena muy bien con las instituciones académicas y es muy difícil mantener con algo propietario una estructura tan grande y con el impacto que tiene la Inteligencia Artificial. Creemos que es la estrategia adecuada. ¿Lleva tiempo?, sí. Lleva tiempo [porque] hay que mostrar que el ecosistema abierto es la mejor forma de acelerar la innovación”, explicó.
En cuanto al futuro de la Inteligencia Artificial, Strier se mostró confiado en que dicha tecnología está, de hecho, “subestimada”, y vamos apenas en el año dos de un superciclo de 10 años de inversión, que llevará a la renovación total de la infraestructura de cómputo del planeta con inversiones de billones de dólares.
Adicionalmente, para el directivo, la IA Agéntica será un aspecto relevante que impulsará la venta de CPUS. Conforme los Agentes atienden la automatización de procesos y tareas, “convirtiéndose en una forma de trabajo”, buena parte de estas labores no están directamente relacionadas con la IA Generativa, por lo que podrán realizarse con una CPU, como leer un correo, bots para navegación Web, etcétera.
“En realidad, lo que estamos descubriendo es que nuestros clientes, especialmente las grandes Nubes, están optimizando su infraestructura de CPU para gestionar las enormes cargas de trabajo de la IA Agéntica. Porque se necesitan las GPU para pensar, pero para actuar se usan las CPU. Por lo tanto, aproximadamente 80% de la carga de trabajo termina ejecutándose en una CPU, lo que explica nuestras ventas. No vemos una desaceleración, sino todo lo contrario, y vemos un enorme interés en todos los niveles de la economía y en todas partes”, puntualizó Strier.
Competir entre gigantes
Aunque Leftraru 2, la nueva supercomputadora de la Universidad de Chile supera en cuatro veces el poder de cómputo que poseía el NLHPC –con una potencia cercana a los 50 kilovatios–, esta infraestructura palidece frente a las inversiones anunciadas en el último año en Estados Unidos, donde se planean grandes campus que superan los gigavatios de potencia. Directivos de AMD apuntaron que América Latina aún puede competir en este contexto enfocándose en ciertos segmentos de Inteligencia Artificial que atiendan los desafíos locales.
Por un lado, Strier señaló que en América Latina también hay proyectos para Centros de Datos de gigavatios, por lo que es algo que está pasando en todo el mundo. Adicionalmente, consideró que hay mucha innovación alrededor de Centros de Datos más pequeños que son más eficientes para modelos pequeños de IA o aplican nuevas técnicas de datos para aprovechar mejor sus recursos.
Sin embargo, la realidad es que existen múltiples casos en los que campus con decenas de miles de GPUs aún serán necesarios. “El problema es que la gente quiere simplificar las cosas, pero este no es un panorama sencillo. Se necesitan decenas de miles de GPU si se van a diseñar y entrenar los modelos de vanguardia más avanzados del mundo; no hay escapatoria. Por otro lado, ese no es el único tipo de modelo útil”, indicó.

En ese sentido, consideró que mientras unos cuantos laboratorios contarán con la capacidad de entrenar modelos de frontera, otras instituciones podrán destinar recursos para otras tareas como fine-tuning o el desarrollo de modelos pequeños de lenguaje (SLM). Adicionalmente, AMD cuenta también con tecnología que permitiría acceder a un mayor poder de cómputo a partir de la interconexión de múltiples Centros de Datos en cualquier país o región.
“Es cierto que todos los países, incluido Chile, deben invertir más en cómputo y, si desean ascender en competitividad global, deberán tomarse más en serio la creación de capacidad computacional. Al mismo tiempo, se puede lograr mucho con un Centro de Datos más pequeño, con clústeres más pequeños, con ciencia de datos muy innovadora y utilizando tecnología y modelos de código abierto”, explicó Strier.
Hiram Monroy, líder del segmento Comercial para Latinoamérica de AMD, coincidió en entrevista que aunque el entrenamiento de modelos requiere cientos de miles de GPUs, la realidad es que la mayoría de cargas de trabajo de IA estarán relacionadas con la inferencia, que no requiere de tanta potencia, y que ya se puede realizar en dispositivos como una PC o el Edge.
“En Latinoamérica, muchas empresas de casi todos los sectores verticales están buscando soluciones para usar la IA. Por ejemplo, en el sector de servicios financieros buscan definir cómo la IA puede ayudarles a revisar el análisis de riesgos para procesar sus transacciones, y en el sector de telecomunicaciones buscan soluciones para optimizar el tráfico de datos y las redes”, apuntó.