Nuevo esquema para abaratar el almacenamiento de big data

  • Noticias y Actualidad

Infinidat-centro de datos

Un equipo de investigadores de India ha desarrollado un conjunto de nuevos códigos LDCP pensados especialmente para los entornos de almacenamiento de grandes cantidades de datos. Afirman que su propuesta supone una mejora frente a las propuestas tradicionales de almacenamiento, como las basadas en la triple replicación, que además son mucho más costosas.

El big data ha impuesto nuevos requisitos para el almacenamiento de datos, ya que la información que llega a las empresas no para de crecer, y proviene de fuentes cada vez más diversas. Esto requiere nuevas estrategias para optimizar la capacidad de almacenamiento disponible, que sean capaces de reducir el coste sin incidir en el rendimiento en la lectura y escritura de datos. Solo así se puede obtener una plataforma de datos rentable que sea capaz de trabajar con la ingente cantidad de información proveniente de los dispositivos IoT, las redes sociales y otros grandes generadores de datos.

Mientras nuevas industrias se suman a la corriente general de digitalización los repositorios de datos se van quedando pequeños, y los operadores de centros de datos y proveedores de la nube están buscando nuevas soluciones. Porque actualmente las grandes industrias, las organizaciones del sector médico, las empresas de redes sociales o las agencias gubernamentales necesitan tener, al menos, 100 petabytes de espacio de almacenamiento.

Gestionar de forma eficiente y con la necesaria resiliencia estos grandes volúmenes de información resulta complicado para las organzaciones. Por ello, en los últimos tiempos se ha considerado la posibilidad de utilizar los códigos de borrado para escenarios como el almacenamiento en la nube, los sistemas de almacenamiento en red y otras arquitecturas distribuidas. Porque el método tradicional de triple replicación, que almacena 3 copias de cada archivo, implica una sobrecarga de almacenamiento del 200%, lo que resulta muy caro para grandes volúmenes de datos.

Por el contrario, aplicando los códigos de borrado se puede lograr un sistema de almacenamiento en paralelo más económico y suficientemente seguro, como afirma un grupo de investigadores de la Crescent University Vandalur, en Chennai (India). En un trabajo que acaban de publicar en la revista Wireless Personal Communications presentan un conjunto de nuevas técnicas para aplicar los códigos LDCP a los sistemas de almacenamiento de big data. Afirman que su método permite diversos casos de uso vinculados a grandes almacenes de datos, en los que se puede aplicar una estrategia de almacenamiento paralelo en vez del clásico esquema de triple replicación, reduciendo sustancialmente el coste y garantizando un rendimiento y una seguridad óptimos.

Más información

¿Cuál es el futuro del mercado de almacenamiento? ¿Qué tecologías son las más adecuadas? Si quieres obtener más información sobre un segmento en crecimiento puedes visitar las páginas de nuestros colaboradores NetAppSynology