miércoles, febrero 1, 2023
HomeDPL NEWSNuevo chip y protocolos: AWS promete mejoras al rendimiento de la Nube

Nuevo chip y protocolos: AWS promete mejoras al rendimiento de la Nube

Las Vegas, Estados Unidos.- Amazon Web Services (AWS) anunció el lanzamiento de múltiples mejoras a su servicio de Nube, incluyendo la quinta generación de su chip Nitro, una nueva iteración de su protocolo SRD para reducir la latencia y mejoras a Firecracker para la mejora en el rendimiento de máquinas virtuales, que fueron presentadas durante el AWS re:Invent de 2022.

“Elasticidad, seguridad, rendimiento, costo, disponibilidad, sostenibilidad, estas no son simplemente características que puedas lanzar y marcar de la casilla, estas son cosas que son fundamentales para la forma en que se construyen los servicios y se producen a partir de inversiones de largo plazo”, afirmó Peter DeSantis, vicepresidente Sénior de AWS Utility Computing.

Durante la conferencia principal de este año, el directivo se centró en la mejora de rendimiento de la Nube, que al mismo tiempo entregue un mejor equilibrio entre seguridad y costo.

Para mejorar el rendimiento de las cargas en la Nube, DeSantis presentó el nuevo Nitro v5, encargado de optimizar las instancias EC2, un servidor virtual en Elastic Compute Cloud (EC2) para ejecutar aplicaciones en la infraestructura de AWS. La nueva versión del chip, construido por Annapurna Labs, incluye el doble de transistores, con lo que promete velocidad de memoria RAM hasta un 50 por ciento superior, y un doble ancho de banda mediante el conector PCIe.

.

Sobre el rendimiento del nuevo chip, el directivo aseguró que el nitro v5 entregará hasta 60 por ciento más paquetes por segundo (PPS) en instancias EC2, un 30 por ciento menos de latencia y hasta 40 por ciento mayor eficiencia por watt.

A la par del nuevo chip, se introdujo también la más reciente generación de instancias EC2, la C7gn basada en Graviton3 y Nitro v5, con la intención de entregar una mejor conectividad para las cargas de trabajo más intensivas, con una velocidad de hasta 200 Gbps, y un rendimiento 50 por ciento mayor en procesamiento de paquetes respecto a la generación anterior.

Entre algunos de los casos de uso para esta nueva instancia se encuentra el pronóstico del tiempo, ciencias e ingeniería industrial, entre otros. Además, para lograr el balance entre rendimiento y costo, AWS buscó optimizar C7gn junto con Graviton3, con lo que promete hasta un 60 por ciento menos de consumo energético.

Adicionalmente, para atender las necesidades del cómputo de alto rendimiento (HPC) que debe atender cargas como mapeo de vectores y operaciones de coma flotante (floating point), presentó también la versión mejorada Graviton3E con mejoras en el rendimiento de HPL (High Performance Linpack) de hasta 35 por ciento, y hasta 30 por ciento en modelos financieros para precios de opciones.

Recomendamos: AWS quiere capturar 95% de cargas que no están en la Nube en México

Para sacar provecho de los nuevos chips de cómputo y red, la compañía presentó una nueva instancia adicional, HPC7g, enfocada en atender cargas de cómputo de alto rendimiento impulsadas por Graviton3E.

DeSantis asegura que con esta nueva instancia logra un mejor balance entre precio y rendimiento, al tiempo que promete reducciones en el consumo energético, por lo que clientes como Rescale y The Water Institute of the Gulf ya han comenzado a utilizarla en cargas como dinámica de fluidos y otros pronósticos.

Se presentó también la nueva interfaz de red Elastic Fabric Adapter, diseñada para trabajar con el controlador de Nitro y proveer la menor latencia y mayor rendimiento de red, en casos de altos niveles de comunicación entre inter-nodos a escala en AWS. La compañía indicó también que esta nueva interfaz se puede integrar fácilmente con plataformas populares de Machine Learning como Nvidia, Open MPI, Intel MPI Library o MVAPICH.

Algunas compañías que ya aprovechan estas nuevas soluciones incluyen el fabricante de camiones eléctricos Rivian, que lo usa para incrementar el alcance de sus vehículos, así como Flying Whales, que utiliza modelos computacionales de dinámica de fluidos 15 veces más rápidos.

Por otro lado, DeSantis anunció la disponibilidad de instancias EC2 Trn1 con tecnología de chips Trainium diseñadas específicamente para procesos de entrenamiento de modelos de Machine Learning en la Nube, con lo que promete hasta un 50 por ciento de ahorro en el costo en comparación con instancias comparables basadas en GPU.

AWS promete reducir tiempos y mejorar la precisión para cargas de trabajo como procesamiento de lenguaje natural, reconocimiento de voz e imagen, búsqueda semántica, motores de recomendación, detección de fraude y previsión.

.

Durante la presentación, también estuvo presente la escudería Ferrari de la Fórmula 1, que ha utilizado las capacidades de AWS para el análisis de datos de los sensores instalados en los vehículos. Para mejorar la experiencia de los aficionados, Ferrari anunció el lanzamiento en 2023 de una nueva aplicación, basada en AWS, que incluirá contenido como entrevistas con miembros del equipo.

Efrén Páez Jiménez
Efrén Páez Jiménez
Efrén Páez Jiménez es economista

LEER DESPUÉS