Mejoran el almacenamiento en ADN con un esquema de codificación iterativo

  • Noticias y Actualidad

Información datos genérica

Un grupo de ingenieros coreanos ha desarrollado un nuevo esquema de codificación para el almacenamiento en cadenas de ADN que permitirá incrementar la densidad de datos y reducir la tasa de errores. Para ello han empleado un algoritmo de codificación iterativo que logra un correcto equilibrio entre citosina y guanina, y evita las restricciones de longitud en las cadenas de nucleótidos.

Todavía quedan muchos retos por superar para lograr una tecnología viable de almacenamiento en soporte de ADN, pero las propuestas actuales prometen ofrecer la capacidad para almacenar grandes volúmenes de datos en un espacio infinitamente más pequeño que el que ocupan los discos duros actuales. El cambio es de tal magnitud que cientos de investigadores en todo el mundo están trabajando en diferentes enfoques para lograr un dispositivo de almacenamiento de datos basado en ADN, aunque la mayoría se enfrentan a problemas similares.

Entre ellos están la limitación de densidad de datos que se pueden codificar en una sola cadena de ADN, sin verse obligados a fragmentarla. Otro es la tasa de error debido a problemas en la síntesis y en la secuenciación, que limitan la fiabilidad del sistema. Existen muchos otros desafíos en el desarrollo de esta tecnología, pero un equipo de ingenieros de la Universidad Nacional de Seúl, en Corea del Sur, se han centrado en estos dos, que están directamente relacionados con el método de codificación.

En su artículo, publicado en la revista arXiv, describen un nuevo sistema de codificación iterativo que proporciona un mayor equilibrio entre la cantidad de citosina y guanina (GC), y que evita las restricciones actuales de longitud de ejecución mediante un algoritmo voraz (greedy algorithm). Explican que es ampliamente sabido que las cadenas de ADN con una longitud de ejecución superior a tres, y una relación de GC alejada del 50% implican una elevada tasa de errores.

Pero con su algoritmo aseguran que se pueden almacenar datos a una alta densidad con mucha flexibilidad en cuanto a la longitud de ejecución, y con un equilibrio de GC menos restrictivo. Y destacan la importancia que tiene el método de mapeo basado en este algoritmo voraz, que permite reducir el promedio de errores de bit en comparación con los sistemas actuales de mapeo generado aleatoriamente.

El sistema basado en este algoritmo, implementado mediante codificación iterativa, consta de tres fases: aleatorización, mapeo y verificación. Según sus experimentos, permite una densidad de información que se acerca al límite teórico del almacenamiento en ADN (1,98 bits/nt), y reduce en un 20,5% el promedio de error de bit provocado por el error de un nucleótido, en comparación con los sistemas de mapeo más extendidos actualmente.

Más información

¿Cuál es el futuro del mercado de almacenamiento? ¿Qué tecologías son las más adecuadas? Si quieres obtener más información sobre un segmento en crecimiento puedes visitar las páginas de nuestro colaborador NetApp.