Beneficios de la memoria computacional para las redes neuronales profundas

  • Noticias y Actualidad

Tecnologías tan complejas y exigentes como las redes neuronales profundas requieren de la máxima potencia de cálculo y de una memoria altamente eficiente para cumplir su misión. Por ello, los expertos están explorando diferentes enfoques, entre ellos el uso de memoria computacional, una tecnología que puede acelerar las cargas de trabajo de inferencia en estas redes.

Las redes neuronales profundas no son algo nuevo, pero actualmente se están desarrollando a niveles que en sus orígenes eran más propios de la ciencia ficción. Se trata, a grandes rasgos, de crear un sistema artificial que emule la forma de trabajar del cerebro humano, a la hora de analizar información y extraer conclusiones. Los conceptos de redes neuronales profundas actuales se basan en diferentes nodos interconectados, a modo de neuronas, que trabajan conjuntamente para comprender la información y sacar conclusiones.

Los científicos e ingenieros llevan tiempo trabajando en diferentes formas de materializar este concepto, tratando de resolver el problema de cómo construir nodos computacionales interconectados altamente eficientes y que puedan trabajar individualmente y, a la vez, como parte de una red más extensa. Ahora, un equipo de investigadores de varias instituciones de investigación suizas, junto a IBM Research, han publicado un artículo en el que exploran los posibles beneficios de usar un método de entrenamiento de redes neuronales profundas, aprovechando el concepto de memoria computacional para construir estas “neuronas artificiales”.

La memoria computacional se basa en trasladar ciertas capacidades y tareas de computación directamente a los nodos de memoria, pero no a cualquier tipo de memoria. Entre las pocas tecnologías que pueden servir se encuentra la conocida como Memoria de Cambio de Fase (PCM), de la que ya existen algunos ejemplos comerciales. Las ventajas que aporta este tipo de chips para la computación en memoria aplicada a este campo son, principalmente, una mayor eficiencia energética y una retención más prolongada de la precisión en los cálculos.

Empleando una metodología de entrenamiento de redes neuronales convolucionales de tipo ResNet (32) mediante dispositivos de memoria PCM, y aplicando ciertas técnicas que describen en su artículo, estos investigadores afirman que es posible mantener durante más de un día una precisión superior al 93,5%. Y esto se basa en programar 361.722 cargas sinápticas en solo dos dispositivos PCM, organizados en una configuración diferencial. En su opinión, esto es un paso importante para la construcción de memores redes neuronales profundas, una tecnología que puede llevar las capacidades de la inteligencia artificial más avanzada a nuevos niveles de complejidad y de éxito.

Más información

¿Cuál es el futuro del mercado de almacenamiento? ¿Qué tecnologías son las más adecuadas para las empresas? Si quieres obtener más información sobre un segmento en crecimiento puedes visitar la página de nuestro colaborador HPE.