Memoria resistiva para la computación en memoria basada en tecnologías CMOS

  • Noticias y Actualidad

placas_memorias_1

La computación en memoria está evolucionando centrándose especialmente en el campo de la infraestructura informática dedicada a la inteligencia artificial, donde puede proporcionar grandes mejoras. Ahora, un equipo de investigadores taiwaneses propone un nuevo marco para la computación en memoria integrada en chips CMOS basados en la memoria RAM Resistiva, pensado para las implementaciones de IA en el borde.

El desarrollo de la computación perimetral y de la inteligencia artificial distribuida requiere tecnologías de hardware capaces de satisfacer los elevados requisitos de cálculo que imponen los sofisticados algoritmos de IA. Pero la especial naturaleza y pequeña escala de las infraestructuras Edge requiere enfoques innovadores, y la industria está proponiendo nuevos enfoques como la computación en memoria, que permite acelerar el cálculo aprovechando las capacidades de la memoria de trabajo.

Tradicionalmente, los computadores han utilizado tecnologías DRAM para esta memoria de trabajo, pero su naturaleza volátil no permite su uso para este concepto de computación en memoria. Por ello, la industria está buscando nuevas tecnologías de memoria no volátil que se puedan usar como sustituta de la DRAM en este tipo de escenarios, y ya existen diferentes desarrollos con gran potencial.

Uno de ellos es la RAM Resistiva, o RRAM, que permite materializar el enfoque de arquitecturas de computación en memoria no volátiles (nvCIM), y hasta ahora se han planteado diferentes enfoques a nivel de hardware. Uno de los más recientes es el que propone un equipo de investigadores de la Universidad Nacional Tsing Hua (NTHU), en Taiwán, que se basa en la memoria RRAM construida con chips CMOS, diseñada especialmente para las implementaciones de inteligencia artificial en infraestructuras TI de computación perimetral.

Y su enfoque también pretende sentar las bases de las futuras redes distribuidas de inteligencia artificial, en las que no solo habrá infraestructuras de computación Edge, sino numerosos dispositivos conectados inteligentes que necesitarán contar con sus propias capacidades de inferencia, basadas en la computación en memoria. Como explican en su trabajo de investigación, su enfoque se trata de una macro nvCIM de 2 megabytes, que se basa en dispositivos de memoria de acceso aleatorio resistivo de celdas de un solo nivel.

Afirman que su diseño es capaz de llevar a cabo operaciones de cálculo múltiples bits con un mayor paralelismo de entrada y salida que otros enfoques de computación en memoria, uno de los principales retos a superar en este campo. Y, según sus pruebas, es capaz de lograr latencias de entre 9,2 y 18,2 nanosegundos, y eficiencias de energía de entre 146,21 y 36,61 teraoperaciones por segundo por vatio, para configuraciones de entrada-peso-salida binarias y multibit, respectivamente. Basándose en estos datos, afirman que su tecnología es idónea para estos escenarios de inteligencia artificial en el borde, y seguirán desarrollándola para mejorar sus prestaciones y sus ámbitos de aplicación.

Más información

¿Cuál es el futuro del mercado de almacenamiento? ¿Qué tecnologías son las más adecuadas? Si quieres obtener más información sobre un segmento en crecimiento puedes visitar la página de nuestro colaborador Western Digital.