AWS moderniza infraestructura con nuevos chips y soluciones para acelerar adopción de IA

Las Vegas, Nevada.- Como parte de sus objetivos para ofrecer opciones a los clientes, ayudarles a reducir sus costos de operación en la Nube, y continuar evolucionando sobre su experiencia, Amazon Web Services (AWS) presentó la nueva iteración de algunos de sus chips, incluyendo Nitron y Graviton, los cuales han incrementado su popularidad entre los clientes de la compañía.

Matt Garman, CEO de AWS, destacó que la compañía es una de las pocas oferentes en Nube con la mayor cantidad de opciones para instancias de chips de fabricantes como Intel, AMD y Nvidia, y la única con una opción de Mac. Pero para continuar la oferta de más opciones con mejor rendimiento y menor consumo energético, la compañía también ha acelerado el desarrollo de sus propios chips.

Durante su presentación en re:Invent 2024, la compañía anunció la actualización de Graviton, chip basado en ARM, enfocado en ofrecer hasta un 40 por ciento mejor precio por rendimiento respecto a x86 y un 60 por ciento menos de consumo energético. Desde su presentación en 2018, ha crecido en popularidad, ya que según Garman, actualmente Graviton atiende un nivel de cómputo similar a todo el cómputo de AWS en 2019 a través de múltiples casos de uso.

La nueva actualización Graviton4 ahora ofrece un 30 por ciento más de rendimiento y una mejora de 40 por ciento para aplicaciones basadas en datos. Por ejemplo, con el uso del chip, refirió que Pinterest logró hasta un 47 por ciento en ahorros, al tiempo que logró reducir sus emisiones de carbono un 62 por ciento.

También lee: Amazon presenta Nova: nuevos modelos fundacionales enfocados en eficiencia de costos

Garman presentó también una nueva actualización de su colaboración con Nvidia, con lo que AWS introdujo las nuevas instancias P6, que utilizarán los nuevos chips Blackwell, que prometen un rendimiento de cómputo 2.5 veces más que la generación anterior. Se espera que Blackwell registre una alta demanda conforme se acelera también la demanda de cómputo para entrenamiento de Inteligencia Artificial (IA).

Como parte de los esfuerzos de la compañía por atraer el cómputo de IA, AWS anunció también la introducción de su chip Trainium2, que promete entre un 30 a 40 por ciento mejor rendimiento por precio. Las instancias disponibles en la Nube de Amazon estarán compuestas por 16 chips Trn2, con un rendimiento de 20.8 petaflops.

Adicionalmente, Garman refirió que conforme se registran grandes modelos de lenguaje (LLM) de mayor tamaño y con mayor demanda de cómputo, también se requiere de instancias preparadas para el entrenamiento de IA. En ese sentido, presentó Trn2 UltraServers, que conectará hasta cuatro instancias de su chip para IA y con un poder de procesamiento de hasta 83.2 petaflops.

“Ahora se puede cargar uno de estos modelos realmente grandes en un solo nodo y ofrecer una latencia mucho mejor, un rendimiento mucho mejor para los clientes sin tener que dividirlo en varios nodos”, explicó Garman.

re:Invent 2024: Nueva región de AWS convertirá a México en un hub tecnológico regional

Entre algunos de los clientes de instancias Trn2 se encuentran Adobe, Databricks y Qualcomm; este último lo usa para entrenar sus sistemas en el Cloud y prepararlos para su despliegue en el Edge.

El directivo indicó también que una de las ventajas de las nuevas instancias Trn2 es que ahora cuentan con grandes clústers de entrenamiento para sus clientes. En particular, la compañía está trabajando con Anthropic en un nuevo proyecto para utilizar cientos de miles de chips Trainium2. “Este clúster es en realidad cinco veces el número de petaflops extra que el clúster actual que Anthropic utilizó para entrenar a su modelo líder Claude”, destacó.

Garman adelantó que esperan mantener el ritmo de actualización del chip, por lo que preparan la presentación de Trainium3 el próximo año, que representaría su primer chip fabricado con un nodo de 3nm y con hasta dos veces más poder de cómputo.

Otro de los clientes que aprovechan las nuevas instancias propietarias de AWS incluyen a Apple, que usó chips como Graviton para el entrenamiento de Apple Intelligence. Benoit Dupin, director senior de Machine Learning e IA en Apple, aseguró que la compañía logró un rendimiento 40 por ciento superior en Graviton frente a instancias x86, que ha sido utilizado para tareas como entrenamiento, ajuste (fine-tuning) y destilación.

AD 4nXd3PIMJiDDUQ2mQ0lkhVNGswdmh54GB ZNWWTlvE0hUo Tk6284qxlLHyHZf5Hsd0sxNQVavlx xnDiYs2eJWMR9ByYHcI8XPpNeRV1b 81YeYZ7 rE TTtphm8CY9nMP9vncvMpw?key=RxJvHQ4 T9jqGRXf WXv7DWK

Otra de las novedades anunciadas por Garman fue la actualización de Aurora DSQL, que permite la distribución de bases de datos SQL entre múltiples regiones, lo que da una alta resiliencia de los datos. La compañía señala que esta era una característica con alta demanda de clientes. La misma característica de consistencia multiregión se agrega a DynamoDB.

El directivo de AWS también destacó la importancia de servir a las startups, que siempre han sido un segmento entusiasta para el uso de la Nube. Garman detalló que la compañía proveerá mil millones de dólares en créditos para impulsar el segmento en 2025.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies