Machine Learning para administrar la energía del centro de datos
- Noticias y Actualidad
La buena gestión energética de los centros de datos es vital para mantener las instalaciones en marcha con el menor coste posible. En la evolución del sector se ha encontrado que las tecnologías de aprendizaje automático pueden ayudar mucho en este campo, y los principales proveedores de estos equipos ya han comenzado a utilizarla para optimizar el consumo de sus clientes.
A lo largo de los años los centros de datos han ido transformándose para integrar cada vez más inteligencia, con lo que se persiguen mejoras en el gasto energético que generan, por ejemplo, los sistemas de enfriamiento. Muchos expertos del sector esperan que las herramientas que se basan en esta tecnología proporcionen mejoras a los centros de datos, que se traducirán en un menor coste y en una mejor administración de los sistemas en instalaciones que cada día se vuelven más complejas y difíciles de administrar. Donde más se está aplicando la inteligencia artificial en los datacenter es en el campo de la refrigeración, que es donde más energía se desperdicia con una mala gestión. A lo largo de este año se han visto muchos avances en este campo, de la mano de algunos de los principales operadores de centros de datos hiperescala, como Facebook, y numerosas iniciativas de comunidades de desarrollo Open Source para el sector datacenter.
Pero otro de los sistemas en los que se están aprovechando las nuevas tecnologías inteligentes, y que quizá tiene menos publicidad, es el de los sistemas de energía para centros de datos. Actualmente los principales diseñadores de estos equipos están incorporando técnicas de aprendizaje automático para mejorar su desempeño en los centros de datos. Con ello se puede optimizar más el cálculo de la energía que se necesita para mantener los equipos en funcionamiento, y se persigue alcanzar una capacidad predictiva que permita prever la potencia necesaria en cada situación, mejorando el desempeño energético general y reducir aún más el gasto.
Las soluciones que están implementándose en los centros de datos más avanzados cuentan con una gestión de la energía definida por software, y con hardware “inteligente”, capaz de distribuir la energía optimizando el consumo de todos los equipos. Según sus creadores, esto permite gestionar el suministro de forma dinámica para adaptarse a las necesidades cambiantes de las distintas infraestructuras que operan en los centros de datos. Mediante el aprendizaje automático, el software de administración de energía aprende de la actividad de todos los sistemas para entregar la potencia necesaria de forma cada vez más eficiente.
El principal problema de los sistemas de energía en los centros de datos es que, para garantizar el funcionamiento constante de la infraestructura, se instalan sistemas redundantes. De esta forma, si falla un equipo, se activa automáticamente el suministro del otro. Esto implica tener constantemente en marcha las dos instalaciones y, aunque no estén funcionando al 100%, generan un cierto consumo “en vacío”. Los diseñadores de sistemas de energía más avanzados están trabajando para conseguir eliminar la necesidad de esta redundancia, pero de momento no existe una solución si se quieren alcanzar los máximos estándares de confiabilidad.
Mientras tanto, la mejor forma de lograr una buena gestión energética es mediante la inteligencia artificial, en forma de software de gestión “inteligente”, que aplica el machine learning para optimizar el uso de la electricidad. Además, algunos proveedores ofrecen la posibilidad de usar esta información en un emulador, para calcular el coste energético que tendrán futuras ampliaciones de racks y servidores en el centro de datos.
Teniendo en cuenta cómo la inteligencia artificial está penetrando en las diferentes áreas del centro de datos, el futuro pasa por sistemas integrales de gestión de las instalaciones. Con los más modernos softwares de administración DCIM, los operadores pueden tener una visión holística de todas las instalaciones, controlando al milímetro el funcionamiento de los equipos, los sistemas de refrigeración y de energía. Incluso los de seguridad cibernética y presencial. Este parece ser el futuro del sector, aunque aún hay que avanzar en el desarrollo de nuevas tecnologías de monitorización, análisis y procesamiento de datos en tiempo real, para desarrollar modelos que proporcionen la capacidad de predecir cómo mover desde las cargas de trabajo a la energía necesaria para los equipos en los momentos de pico y valle de actividad.
En este sentido, Rhonda Ascierto, vicepresidente de investigación del Uptime Institute dijo en declaraciones recientes: “Es posible que una sala no sea tan redundante en energía como ha sido diseñada debido a, digamos, a la deriva en las prácticas operativas. Se trata de garantizar que cada parte de la instalación esté funcionando como espera que sea en términos del perfil de redundancia, a pesar de la naturaleza en constante cambio de estas instalaciones”. Indicó que el objetivo es pasar de una estrategia reactiva a una predictiva, y dijo que: “Un UPS es reactivo. Espera hasta que se interrumpa el suministro de energía. Cuando las aplicaciones se recuperan después de una falla, eso es reactivo. Ser proactivo significa no esperar” y que, si se sabe que va a haber un problema, se puede poner remedio con antelación.
Mas información
¿Cuál es el futuro del mercado de almacenamiento? ¿Qué tecnologías son las más adecuadas para las empresas? Si quieres obtener más información sobre un segmento en crecimiento puedes visitar las página de nuestro colaborador Huawei.