El creciente nivel de procesamiento que exigen las soluciones y aplicaciones impulsadas por Inteligencia Artificial (IA) ha llevado a agrupar un número cada vez mayor de cientos y hasta miles de procesadores gráficos (GPU) o aceleradores en un mismo Centro de Datos. Sin embargo, esto representa un reto técnico cada vez más apremiante: disipar el calor generado por estos componentes, por lo que el enfriamiento líquido se coloca como la única solución que permitirá a la tecnología lograr todo su potencial.
La disipación de calor de los componentes se ha convertido en el siguiente reto de los gigantescos Centros de Datos actuales, donde una refrigeración eficiente cumple esencialmente con dos propósitos: permitir que los componentes como las GPUs puedan trabajar con todo su potencial y, al mismo tiempo, disminuir el consumo energético, que ayuda a los objetivos de reducción de emisiones entre empresas y gobiernos.
Jason Zeiler, Liquid Cooling Product Manager de HPE, en entrevista con DPL News, explicó que se observa un cambio en la forma en que se diseñan los Centros de Datos, ya que las demandas térmicas de los chips actuales simplemente no pueden manejarse con aire acondicionado convencional.
Para enfrentar este desafío, el enfriamiento líquido permite una transferencia de calor más eficiente al estar en contacto directo con los componentes que generan calor, como CPUs y GPUs. Esto resulta especialmente relevante en entornos donde se ejecutan modelos de IA de gran escala, que requieren una densidad de cómputo considerable.
Liquid Cooling para liberar el potencial de la IA
Durante el pasado HPE Discover en Las Vegas, la compañía exhibió una pequeña parte de la supercomputadora más poderosa del mundo: El Capitán. Está construida sobre la base de HPE Cray EX255a, y se compone por procesadores AMD EPYC 24C 1.8GHz de cuarta generación y aceleradores AMD Instinct MI300A. La única alternativa para que este sistema logre su máximo rendimiento y el consumo energético se mantenga bajo control son los sistemas de refrigeración líquida.
En ese sentido, Zeiler señaló que si bien esta tecnología de refrigeración se había destinado principalmente para sistemas de supercómputo, las nuevas demandas de procesamiento de IA en empresas y gobierno han ampliado la adopción de la refrigeración líquida en un segmento intermedio de clientes empresariales, quienes buscan agregar más capacidad de procesamiento en línea con la IA, sin sacrificar el rendimiento. Por ejemplo, industrias como hidrocarburos y energía, monitoreo del clima o hasta bancos, que no necesariamente cuentan con supercomputadoras, se han visto obligadas a adoptar nuevos sistemas de enfriamiento para elevar el rendimiento de sus Centros de Datos.
Uno de los principales impulsores de la adopción de enfriamiento líquido ha sido el aumento sostenido en el consumo energético de los procesadores de alto rendimiento. Zeiler explicó que mientras hace una década los servidores típicos operaban con CPUs que consumían entre 100 a 200 vatios, hoy en día es común encontrar CPUs de 500 vatios y GPUs que consumen hasta 1,000 vatios por unidad, especialmente en configuraciones diseñadas para entrenamiento de modelos de IA.
Por ejemplo, apuntó que algunas tarjetas GPU con formato PCIe podrían verse limitadas a alrededor de 700 vatios, debido a las dificultades de refrigeración por aire cuando se cargan en un chasis, lo que limitaría a las empresas que elijan esta opción a instalar sólo dos o tres por rack. Para una densidad de rack completa y alto rendimiento, las GPU de 1,500 vatios requerirán refrigeración líquida, reiteró.
Según información de AMD, la GPU Instinct MI350X tiene un consumo típico de 1,000 vatios y está diseñada para refrigeración por aire, mientras que la más nueva MI355X utiliza refrigeración líquida directa con un consumo de 1,400 vatios.
El punto de quiebre se encuentra aproximadamente en los 40 kilovatios por rack, siendo imposible la refrigeración por aire en cualquier sistema superior a los 70 kilovatios. “Depende de la estrategia del Centro de Datos. ¿Quieren operar racks de menor densidad, lo que a veces también significa que no podrán comprar los zócalos de gama alta, o quieren innovar en el Centro de Datos, añadiendo refrigeración líquida, para poder habilitar realmente cualquier nueva tecnología que deseen?”, cuestionó Zeiler.
Mayor eficiencia energética
La adopción de refrigeración líquida no sólo responde a la necesidad de mantener temperaturas operativas seguras, sino también a la eficiencia energética. Los sistemas de enfriamiento por aire requieren grandes volúmenes de flujo y ventilación, lo que incrementa el consumo eléctrico del Centro de Datos. En contraste, el enfriamiento líquido puede reducir la energía necesaria para la disipación térmica, al aprovechar la mayor capacidad calorífica del agua u otros fluidos especializados como propilenglicol, utilizado en los sistemas de HPE.
En términos del PUE (Power Usage Effectiveness), una métrica utilizada para medir la eficiencia energética de los Centros de Datos, Zeiler estima que en promedio una instalación refrigerada por aire puede lograr un PUE de 1.2 a 1.1 –entre más cerca del 1, más eficiente–, contra un 1.7 medido usualmente en Centros de Datos enfriados por aire. “Esa diferencia de 0.5 es sustancial en un Centro de Datos, sólo desde el punto de vista del consumo de energía”, afirmó.
Lo anterior se traduce en un menor consumo de energía y, por tanto, menores gastos operativos (OPEX), por lo que no únicamente los directivos de sustentabilidad cumplen sus objetivos, sino que también ayuda a generar ahorros financieros. Además, el mantenimiento de estos sistemas es relativamente sencillo, ya que sólo requiere tomar una muestra del líquido una vez al año.
Te puede interesar: Castrol lanza servicio para atender las exigencias térmicas de Centros de Datos
En una entrada del blog de HPE, el Product Manager ofrece un ejemplo. En un Centro de Datos que cuenta con 10,000 servidores, si toda esta infraestructura se enfría por aire, la instalación emitirá más de 8,700 toneladas de CO2, en comparación con los servidores enfriados por líquido que emiten alrededor de 1,200 toneladas de CO2 al año. Esto representa una reducción de energía del 87% y evita que cerca de 17.8 millones de libras de CO2 sean liberadas anualmente a la atmósfera.
Además, Zeiler destacó los beneficios del uso de propilenglicol, un líquido que es relativamente fácil de reciclar, que no es tóxico y que no genera efectos secundarios como gases de efecto invernadero, por lo que se ha convertido en un estándar de la industria.
Finalmente, el directivo resaltó la competitividad de HPE en este segmento. Consideró que aunque muchos afirman ofrecer soluciones de refrigeración líquida, la experiencia en la implementación a gran escala y el mantenimiento son cruciales. Espera que en los próximos años se destacarán los fabricantes de equipos originales que han logrado construir sistemas de gran tamaño con éxito, como el es caso de HPE, que además se ha enfocado en hacer estos sistemas lo más fáciles de adoptar para los clientes.