Memoria emergente para las nuevas plataformas de IA y supercomputación
- Noticias y Actualidad
En los últimos años la industria de servidores ha lanzado soluciones específicamente diseñadas para las plataformas de supercomputación y la inteligencia artificial, con nuevas tecnologías. Uno de los puntos clave es la memoria de trabajo, un campo en el que están surgiendo innovaciones como la memoria HBM y CXL, que permiten superar las restricciones de capacidad y latencia de la DRAM con un costo inferior.
La inteligencia artificial y otras aplicaciones que se ejecutan en entornos de supercomputación se alimentan de volúmenes cada vez mayores de datos, y la industria está buscando soluciones que permitan superar las limitaciones de capacidad de la memoria DRAM. Para lograrlo sin incrementar el costo en exceso, tradicionalmente se ha tenido que sacrificar el rendimiento, la latencia y la capacidad de memoria, lo que lastraba el desempeño de las plataformas de computación. Pero en los últimos años han surgido nuevas tecnologías que prometen superar estas barreras, y que están ganando presencia entre los fabricantes de plataformas HPC.
Según los expertos de TrendForce, las dos innovaciones más relevantes que han surgido en este campo son la memoria HBM (High Bandwidth Memory) y CXL (Compute Express Link). La primera es un nuevo tipo de DRAM de alta velocidad de entrada/salida, enfocado a necesidades computacionales más diversas y complejas. La segunda es un nuevo estándar de interconexión que permite que diferentes procesadores compartan con más facilidad los recursos de memoria.
HBM permite superar las limitaciones de ancho de banda de las soluciones DRAM a través del apilamiento vertical en 3D de matrices DRAM sobre la matriz lógica. Estas matrices están interconectadas con TSV y microbumps, lo que permite incrementar el ancho de banda. La última generación de HBM que se encuentra en producción actualmente es HBM2e, que contiene cuatro u ocho capas de matrices de DRAM de 16 Gb, con una capacidad de memoria de 8 o 16 Gb por pila HBM individual, con un ancho de banda de entre 410 y 460 Gbps. Y ya está en desarrollo la siguiente generación (HBM3), cuyas primeras unidades se encuentran en proceso de validación, con posibilidades de entrar en producción en masa en 2022.
Los expertos de TrendForce calculan que la memoria HBM alcanzará este año solo un 1% de la demanda total de bits DRAM, ya que por ahora el segmento de consumo no ha adoptado esta tecnología, y la industria de servidores dedica menos de un 1% de su hardware a aplicaciones de IA. Además, menos de un 1% de todos los servidores están equipados con aceleradores de IA, y muchos de ellos todavía usan memorias GDDR5 y GDDR6, y todavía no han cambiado a soluciones basadas en HBM. Pero se espera que en los próximos años se produzca una mayor integración de este tipo de memoria en plataformas específicamente diseñadas para la inteligencia artificial, como las basadas en procesadores FPGA y ASIC.
Por su parte, el estándar de memoria CXL se ha desarrollado a partir de la interfaz PCIe Gen5, y permite interconexiones de alta velocidad y baja latencia entre la CPU y otros componentes como las aceleradoras GPU y FPGA. Esta tecnología permite la virtualización de la memoria, de forma que diferentes dispositivos puedan compartir los recursos de memoria, aumentando el rendimiento de todo el sistema sin elevar más el costo. Esto permite hacer frente a las grandes cargas de trabajo relacionadas con las aplicaciones de inteligencia artificial y otras típicamente usadas en las plataformas de computación de alto rendimiento (HPC).
Aunque algunas empresas tecnológicas de renombre han lanzado soluciones similares, como NVLink de Nvidia y Gen-Z de AMD y Xilinx, CXL cuenta con el apoyo de Intel y de una comunidad cada vez mayor de especialistas en tecnología. Como ejemplo de sus posibilidades, empresas como AMD, ARM, NVIDIA, Google, Microsoft, Facebook (Meta), Alibaba y Dell ya se han unido al consorcio CXL, y los expertos de TrendForce creen que será el protocolo que predominará en el futuro.
Los proveedores de memoria también están enfocándose en incorporar soporte CXL en sus futuros productos, por ejemplo Samsung, que ha anunciado el próximo lanzamiento de módulos DRAM DDR5 compatibles con CXL. Y los expertos creen que existen muchas posibilidades de que los fabricantes de memoria NAND Flash también adopten CXL para mejorar la integración de sus dispositivos de almacenamiento de estado sólido en las plataformas de computación. Y esperan que a partir de 2023 existan nuevas soluciones compatibles con CXL, principalmente productos HBM y posteriormente otros tipos de DRAM y sistemas de almacenamiento SSD.
Más información
¿Cuál es el futuro del mercado de almacenamiento? ¿Qué tecnologías son las más adecuadas? Si quieres obtener más información sobre un segmento en crecimiento puedes visitar la página de nuestro colaborador Western Digital