El hardware es fundamental para el almacenamiento definido por software

  • Noticias y Actualidad

data center servidor 2

Durante mucho tiempo se ha tratado de vender que el almacenamiento definido por software acaba con la necesidad de preocuparse por el hardware donde se almacenan los datos. Pero para los expertos esta forma de entender la tecnología es completamente errónea, algo que se está demostrando a medida que las organizaciones escalan su almacenamiento y despliegan infraestructura perimetral.

Uno de los mayores avances que ha experimentado la industria de almacenamiento es la introducción de la infraestructura definida por software, que ha permitido a las organizaciones desacoplar el hardware y el software y disfrutar de una mayor flexibilidad a la hora de realizar un escalamiento horizontal. Pero esto ha llevado a la percepción errónea de que el hardware no es importante, y muchas empresas han adoptado masivamente soluciones de almacenamiento definido por software (SDS), simplificando la gestión del almacenamiento, aparentemente sin tener que preocuparse del hardware. Como resultado han adquirido una mayor libertad para escalar sin límites, mejorar la eficacia y la movilidad dentro del centro de datos.

Pero, como explica Phil Straw, director ejecutivo de SoftIron, en un artículo publicado por Datacenter Knowledge, la percepción de que el hardware de almacenamiento ya no es tan importante y de que las tecnologías SDS son la mejor solución per se para los centros de datos no se corresponde con la realidad. Por un lado, destaca que todavía existe un gran bloqueo de los proveedores en el ecosistema SDS, y que los datos son cada vez más difíciles y costosos de mover entre las soluciones propietarias que dominan la industria.

El software no resuelve todos los problemas del hardware

En cuanto al hardware, destaca que los proveedores están enfocándose en mejorar sus márgenes en detrimento de la calidad del hardware, recurriendo a soluciones comerciales listas para usar (COTS) que son opacas en cuanto a los dispositivos de almacenamiento, y centrándose en proporcionar un software cada vez más sofisticado. Y tratan de resolver las ineficiencias del hardware COTS optimizando el software, algo que en opinión de Straw no es posible, especialmente cuando se lleva esta estrategia a escala.

Explica que por cada cuello de botella presente en el hardware que se trata de optimizar a través del software se incrementa el consumo de energía, con el consiguiente aumento de calor. Esto obliga a implementar sistemas de enfriamiento más potentes que, a su vez, consumen más energía y espacio, lo que genera un círculo vicioso en el que las organizaciones se ven atrapadas.

Para romper con esta peligrosa dinámica aconseja poner más atención en el apartado del hardware de almacenamiento, buscando soluciones que se adapten realmente a las necesidades específicas de cada carga de trabajo. Y afirma que esto será fundamental a medida que vaya madurando el concepto de infraestructura de datos del núcleo al borde, según el cual se construirá cada vez más infraestructura fuera de los centros hiperescala.

No se puede ignorar el valor que aporta el hardware

En su artículo señala tres razones principales por las cuales el hardware de almacenamiento se hará fundamental para el almacenamiento definido por software. La primera es que los sistemas basados en hardware COTS no son óptimos para las implementaciones perimetrales. En proyectos realizados en su compañía han constatado que las infraestructuras pensadas para trabajar con datos en tiempo real este tipo de tecnologías chocan frontalmente con la física. Dice que las infraestructuras de alto rendimiento y baja latencia deben ubicarse cerca de la fuente y el usuario final de los datos, y en los sistemas perimetrales el espacio disponible es un factor clave.

En estos casos, los sistemas basados en COTS, que tienen un tamaño predefinido, resultan ineficientes para el Edge computing, ya que las limitaciones de espacio impiden utilizar sistemas de enfriamiento que puedan reducir la temperatura de estos sistemas sobrecalentados por debajo del umbral adecuado. Si para ello es necesario instalar sistemas de refrigeración adicionales, se debe ocupar un espacio extra que muchas veces no está disponible. Afirma que muchos proveedores de este tipo de soluciones están esforzándose por desarrollar sistemas de enfriamiento más potentes, pero que esto no sería necesario si se opta por un hardware operativo bien optimizado para el software que se va a ejecutar en las plataformas de borde.

La segunda razón por la que considera que las soluciones basadas en COTS no son adecuadas para las arquitecturas distribuidas de almacenamiento definido por software es que la cadena de suministro de sus componentes es muy opaca. En la mayoría de los casos, los clientes no saben qué hardware incluyen las soluciones COTS que adquieren. Esto choca frontalmente con los modelos de seguridad basados en la confianza cero que están adoptando tanto las empresas como los gobiernos.

Al confiar en este tipo de diseños opacos los clientes no pueden conocer de antemano los componentes que montarán sus equipos y no pueden asegurarse de la procedencia de los mismos a través de una auditoría transparente. Esto hace que, sin saberlo puedan estar dependiendo de una cadena de suministro débil que podría sufrir interrupciones, algo que las organizaciones temen tras los continuos problemas sufridos en estos dos últimos años a causa de la pandemia.

Por último, Straw afirma que las soluciones basadas en COTS van totalmente en contra de la tendencia actual hacia la sostenibilidad. Opina que, a pesar de que la infraestructura definida por software aporta numerosas ventajas, está llevando a las organizaciones a un uso excesivo del software, complicando los esfuerzos de innovación encaminados a alcanzar los objetivos de desarrollo sostenible, espacialmente cuando se escalan los recursos de almacenamiento.

Al no conocer la procedencia del hardware incluido en este tipo de soluciones, sin saberlo podrían estar adquiriendo equipos fabricados por empresas altamente contaminantes. A medida que las organizaciones abordan los objetivos de reducción de emisiones de los Alcances 2 y 3, en los que intervienen más integrantes de toda su cadena de valor, es vital asegurarse de que los proveedores de tecnología cumplen un cierto nivel de sostenibilidad, que en algunos negocios representa la mayor parte de su huella total de carbono.

Asimismo, los factores de ineficiencia que menciona anteriormente y su consiguiente consumo excesivo de energía minan los esfuerzos de las empresas por aumentar su eficiencia. Al generar más calor, estas soluciones COTS obligan a gastar más en enfriamiento, un problema que puede crecer exponencialmente a medida que escalan los recursos en las instalaciones.

Una invitación a la reflexión

En su artículo, Straw señala que no pretende exponer argumentos en contra de la infraestructura definida por software, sino enfatizar la importancia capital que tiene escoger adecuadamente el hardware que se implementa en los centros de datos y otras infraestructuras en los que el almacenamiento está definido por software. Y propone a los operadores que reflexionen sobre quién se beneficia más de adoptar soluciones en las que el hardware no solo se considera secundario, sino que también sirve para reducir el precio si tener en cuenta las consecuencias.

En muchos casos, el principal beneficiario de este modelo son los proveedores de estas soluciones, y no su propia empresa. Porque una menor inversión sin analizar pormenorizadamente los verdaderos requisitos de TI de la organización a largo plazo puede generar un sobrecoste inesperado y afectar a sus planes a futuro, tanto a nivel tecnológico como en el campo de la sostenibilidad medioambiental.

Por ello, recomienda a los operadores de centros de datos y a las empresas que adoptan soluciones de infraestructura definida por software que sean más rigurosos a la hora de seleccionar a los proveedores que les proporcionan estas tecnologías. Y que analicen cuidadosamente si el enfoque software-defined que adoptan les permitirá escalar sus recursos en el borde, sin se verán bloqueados por el proveedor elegido en el futuro, si es posible conocer exactamente la procedencia de la infraestructura que adquieren y si podrán auditar el código fuente en caso necesario.

Más información

¿Cuál es el futuro del mercado de almacenamiento? ¿Qué tecologías son las más adecuadas? Si quieres obtener más información sobre un segmento en crecimiento puedes visitar la página de nuestro colaborador Synology