Acepto

COOKIES

Esta web utiliza cookies técnicas, de personalización y de análisis, propias y de terceros, para anónimamente facilitarle la navegación y analizar estadísticas del uso de la web. Obtener más información

Diseñan un nuevo algoritmo de traducción de direcciones para unidades SSD

  • Noticias y Actualidad

Samsung v6 ssd

Un equipo de investigadores coreanos ha desarrollado un nuevo algoritmo de traducción de direcciones especialmente pensado para el almacenamiento flash de más de 100 Tb. Según sus creadores, este sistema permitirá reducir en un 20% el consumo de memoria DRAM empleado para la traducción de direcciones, sin afectar a la latencia en la lectura de los datos.

Muchas de las tecnologías que se emplean en el almacenamiento SSD se basan en las usadas tradicionalmente en los discos duros HDD. Un ejemplo son los algoritmos de traducción de direcciones, empleados para identificar la localización de los datos en la unidad durante los procesos de lectura. Aunque en este caso no son exactamente iguales a los utilizados con los discos magnéticos, tienen en común un elevado consumo de memoria DRAM, un recurso caro y de capacidad limitada dentro de las plataformas de computación y almacenamiento.

Ante el rápido avance de las tecnologías de almacenamiento SSD en el ámbito empresarial y de los centros de datos, las tradicionales técnicas de traducción de direcciones basadas en el mapeo L2P se muestran poco eficientes. La industria está buscando soluciones que tengan menos coste de memoria de trabajo de cara al siguiente salto evolutivo del almacenamiento flash empresarial, que se basará en discos o plataformas SSD con capacidades superiores a los 100 Tb.

Siguiendo esta línea de trabajo, ya se han propuesto varios algoritmos de traducción de direcciones que intentan reducir el consumo de DRAM, pero generalmente introducen más latencia, especialmente en los procesos de lectura aleatoria. Pero ahora, un equipo de investigadores ha publicado un documento en el que proponen un nuevo algoritmo denominado BloomFTL, que emplea una estructura de datos basada en la probabilidad, con un “filtro Bloom”, con el que prometen reducir el consumo de memoria sin perjudicar los procesos de lectura en términos de latencia.

Según sus pruebas iniciales, aprovechando la naturaleza de este “filtro Bloom”, que es capaz de ahorra espacio, han logrado reducir el consumo de memoria en un 20% con respecto a los algoritmos que se emplean actualmente, sin incrementar la latencia en los procesos de lectura, incluso en los aleatorios. Además, aunque este sistema muestra una menor eficiencia de “recolección de basura”, una característica propia de los SSD, aseguran que su algoritmo BloomFTL garantiza un factor de amplificación de lectura de 1.1, incluso en las lecturas aleatorias.

Más información

¿Cuál es el futuro del mercado de almacenamiento? ¿Qué tecnologías son las más adecuadas para las empresas? Si quieres obtener más información sobre un segmento en crecimiento puedes visitar la página de nuestro colaborador HPE.