La desaceleración de la ley de Moore subirá los costos de los centros de datos

  • Noticias y Actualidad

Optimizar el rendimiento de los centros de datos es un desafío constante, que se ve dificultado por el relativo estancamiento de las tecnologías de procesamiento basadas en el silicio. Los expertos señalan que la industria está buscando caminos alternativos para continuar aumentando la potencia de cálculo, lo que encarecerá los costes de los centros de datos.

La ley de Moore establece un ritmo de evolución de las tecnologías de procesadores basados en el silicio, y en los últimos tiempos los principales fabricantes están teniendo dificultades para seguir el ritmo estipulado por esta ley. Esto está repercutiendo en el avance de diversas tecnologías como ordenadores, dispositivos y, muy especialmente, en los servidores y computadoras de corte profesional, como los empleados en los centros de datos. Esto frena la capacidad de los operadores de incrementar su capacidad de proceso, en un momento en el que cada vez se necesita más potencia de cálculo para soportar las exigencias de aplicaciones como la analítica, la inteligencia artificial o las grandes redes de dispositivos IoT.

En un reciente estudio realizado por la firma Futuriom, para el que han entrevistado a 218 profesionales de TI de alto nivel, un 37% espera que el ritmo de la ley de Moore continuará imperando, mientras que casi una cuarta parte opina que la velocidad de evolución que impone la ley se ralentizará. Esto tendría consecuencias en el sector de los centros de datos, que necesitan cada vez más potencia para soportar las nuevas cargas de trabajo, y los operadores se enfrentarían a un mayor coste para agregar chips y capacidad de procesamiento en sus instalaciones.

En esta encuesta se preguntó a los profesionales qué capacidades de los entornos de la nube querrían replicar en sus instalaciones locales, a lo que la mayoría contestó que les gustaría emular la utilización altamente eficiente de los servidores y el almacenamiento. Pero los administradores de los centros de datos están tratando de evitar más inversiones en este tipo de hardware, dados los costes.

Además, casi una quinta parte de los gerentes de centros de datos entrevistados afirmaron que querían emular una red ethernet convergente y flexible, como las utilizadas por los proveedores cloud a hiperescala. Un 17% señaló la implementación, monitorización y gestión automatizada de la infraestructura y el aprovisionamiento, y un 15% la generación de informes y las formas simplificadas de facturación de recursos.

En cuanto a los desafíos en materia de virtualización y contenedores, un 28% de los entrevistados querría combatir las limitaciones de rendimiento en la virtualización. Una cuarta parte encuentra un desafío en la gestión de la nube y para un 22% el principal reto es enfrentarse a la seguridad y la automatización.

La encuesta de Futuriom también destaca que las tecnologías de optimización de la red son una de las formas más importantes de mejorar el rendimiento de los centros de datos, ya que permiten aprovechar mejor las capacidades de las plataformas de almacenamiento, servidores y otros recursos. Los principales beneficios que esto proporcionaría, según perciben los entrevistados, serían un incremento del rendimiento de las aplicaciones (64%), una mayor seguridad (59%), mayor flexibilidad (57%) y un aumento de la confiabilidad de las aplicaciones (57%). Y, en términos generales, un 84% de los encuestados opina que la infraestructura de red es “importante” o “muy importante” para soportar aplicaciones como la inteligencia artificial y el aprendizaje automático.

Más información

¿Cuál es el futuro del mercado de almacenamiento? ¿Qué tecnologías son las más adecuadas para las empresas? Si quieres obtener más información sobre un segmento en crecimiento puedes visitar las páginas de nuestros colaboradores: NetApp y Huawei.