Acepto

COOKIES

Esta web utiliza cookies técnicas, de personalización y de análisis, propias y de terceros, para anónimamente facilitarle la navegación y analizar estadísticas del uso de la web. Obtener más información

La refrigeración líquida vuelve a los centros de datos por la inteligencia artificial

  • Noticias y Actualidad

centro de datos_apc

Tras varias décadas de supremacía de los sistemas de enfriamiento por aire en los centros de datos, la expansión de la inteligencia artificial está exigiendo tecnologías de disipación de calor más potentes. Esto está impulsando la adopción de nuevos sistemas de refrigeración líquida, que poco a poco están recuperando su lugar en los datacenter.

Desde finales del siglo pasado, los centros de datos dejaron atrás los clásicos sistemas de refrigeración líquida, complejos y costosos, para adoptar el enfriamiento por aire. Esto se debió a que los procesadores de entonces alcanzaron un nivel de eficiencia que redujo mucho el calor residual, permitiendo el desarrollo de tecnologías de enfriamiento por aire que podían cubrir las necesidades del centro de datos. Pero, en los últimos años, las nuevas cargas de trabajo basadas en la inteligencia artificial están dando lugar a nuevos y más potentes procesadores, que actualmente generan mucho más calor del que se puede disipar con los sistemas de enfriamiento preexistentes.

Los procesadores convencionales para servidores y grandes computadoras, así como las matrices de discos duros HDD, no son capaces de soportar las cargas de trabajo de IA, cada vez más exigentes. Ante este bache en el camino, los fabricantes de GPU y plataformas de almacenamiento flash han sido capaces de aportar soluciones que cubren estas enormes necesidades, lanzando productos preparados especialmente para la inteligencia artificial. Pero estas nuevas tecnologías, especialmente los procesadores, generan gran cantidad de calor y los actuales sistemas de refrigeración por aire son incapaces de mantener los equipos en niveles de temperatura tolerables. Como promedio, una GPU dedicada a la inteligencia artificial genera el doble de calor que una CPU de servidor con un TDP de entre 150 y 300 vatios.

Esto supone que, para no dañar los chips, o se disminuye su rendimiento o se buscan nuevas soluciones de enfriamiento. La primera opción carece absolutamente de sentido, ya que la IA requiere cada vez más capacidad de cómputo, y aumentar la potencia del enfriamiento por aire para combatir el exceso de calor puede resultar costoso e ineficiente a largo plazo. Por ello, los operadores de centros de datos han recurrido de nuevo a la refrigeración líquida, la única tecnología capaz a día de hoy de enfriar los procesadores y otros componentes por debajo de su umbral de tolerancia térmica, con unos costes razonables.

Ejemplos de ello se pueden encontrar ya en algunos de los grandes hiperescaladores, como Facebook o Google, que han desarrollado sistemas propios de refrigeración líquida, especialmente diseñados para sus plataformas de IA. Desde su salida masiva de los centros de datos, estas tecnologías han sobrevivido gracias a las plataformas de computación de alto rendimiento, convirtiéndose en un nicho, pero ahora están viviendo las primeras etapas de un resurgimiento que puede perdurar durante muchos años.

Pero los fabricantes de estas soluciones se enfrentan a la desconfianza de los operadores datacenter, que ven complicado adaptar estas soluciones a sus actuales racks y armarios, y temen profundamente las consecuencias que pueden tener las posibles fugas de líquido refrigerante. Estos temores están frenando a muchos operadores datacenter, muchos de los cuales prefieren escalar sus sistemas de enfriamiento por aire, al menos por ahora. Pero dada el creciente uso de inteligencia artificial en numerosos sectores y para cada vez más aplicaciones, cabe esperar que incluso los más resistentes al cambio acaben adoptando la refrigeración líquida, el menos para la infraestructura dedicada a la IA. No en vano, los grandes hiperescaladores llevan tiempo desarrollando sus propias infraestructuras para IA con enfriamiento líquido, que durante 2018 se han ido expandiendo en sus instalaciones.

Por su parte, los proveedores de soluciones de enfriamiento líquido están tratando de enfocar sus esfuerzos hacia las infraestructuras diseñadas para la IA, y también hacia un sector en crecimiento, que es el de la computación Edge. Este nuevo modelo de centro de datos tiene como objeto estar ubicado donde se generan los datos, ya sea en una fábrica, en un centro comercial, en una tienda o en las azoteas de los edificios. Por ello, en muchos casos se encontrará en una ubicación con condiciones climáticas que no ayudan a los sistemas de enfriamiento por aire. Además, muchos datacenter Edge son instalaciones de reducido tamaño con bastante potencia de cálculo, por lo que los fabricantes de refrigeración líquida más destacados están enfocando muchos esfuerzos en el desarrollo de soluciones de pequeño tamaño pensadas especialmente para estos equipos. En 2019, con el avance de la computación en el borde, los expertos esperan que la refrigeración líquida encuentre cada vez más hueco en el mercado, tanto en los centros de datos convencionales como en los periféricos.

Más información

¿Cuál es el futuro del mercado de almacenamiento? ¿Qué tecnologías son las más adecuadas para las empresas? Si quieres obtener más información sobre un segmento en crecimiento puedes visitar las páginas de nuestros colaboradores: NetApp y Huawei.