Riesgos de implementar la Inteligencia Artificial en los centros de datos

  • Noticias y Actualidad

Los operadores de centros de datos están comenzando a usar la inteligencia artificial para la administración de los sistemas y servicios proporcionados en sus instalaciones, mejorando la eficiencia y la gestión de sus recursos. Pero esta nueva tecnología también trae consigo una serie de riesgos a los que las empresas deberán enfrentarse en el futuro.

La arquitectura TI de los centros de datos está volviéndose más compleja y diversificada a medida que crece la adopción de nuevas tecnologías y modalidades de infraestructura. Esto está llevando a los operadores a implementar sistemas basados en inteligencia artificial para la administración de la infraestructura y los servicios, lo que proporciona numerosas ventajas, pero también ciertos riesgos. Un reciente estudio del Uptime Institute, denominado “Centros de datos inteligentes: cómo la inteligencia artificial impulsará las decisiones operativas”, revela que la naturaleza de estos riesgos no está siempre muy clara, ni tampoco sus implicaciones o las consecuencias de no ponerles solución.

Como ejemplo del uso de la IA en el entorno de los centros de datos citan los nuevos servicios de la nube impulsados por la inteligencia artificial, como la gestión de datos entregada como servicio (DMaaS), que es capaz de aglutinar los datos anónimos de cientos o miles de centros de datos de diferentes clientes. Aplicando la IA a este vasto conjunto de datos es posible proporcionar a los clientes información individualizada que les llega a través de Internet. Esto plantea un problema sobre la propiedad de esos datos tan distribuidos, y en muchos casos no se sabe si pertenecen al cliente o al proveedor de servicios.

En este sentido, estas complejas redes de información plantean serios problemas en materia de gobernanza y cumplimiento normativo, lo que tiene implicaciones en las políticas de recuperación ante desastres, entre otros campos.  Además de este riesgo, la amplia distribución de la información en redes de diferente naturaleza y ubicación abre las puertas a que los piratas informáticos puedan recopilar partes de estos datos de distintas ubicaciones y después juntarlas para obtener información completa y sensible de los clientes.

En términos generales, el informe del Utime Institute identifica cuatro áreas de riesgo principales debidas a la introducción de la inteligencia artificial en el entorno de los centros de datos:

Riesgo comercial: según los expertos, los modelos de inteligencia artificial y los datos almacenados en la nube pública se encuentran fuera del control directo de los clientes. Por ello, los productos y servicios comerciales de aprendizaje automático generan importantes riesgos de bloqueo para los clientes, ya que los procesos y sistemas se pueden construir sobre modelos que emplean datos que no se pueden replicar. Por ahora, los precios de estos servicios son relativamente bajos, con el fin de que los clientes migren sus datos a estas plataformas y alimenten las máquinas de IA con un volumen suficiente de información. Pero estos costes probablemente se elevarán en el futuro, especialmente a medida que crezca la adopción de servicios basados en la inteligencia artificial, y cuando los clientes comiencen a demandar políticas de protección de datos más estrictas, que elevan el precio de los servicios.

Riesgo de acuerdo legal y de nivel de servicio: El hecho de que los modelos de IA y el almacenamiento de los datos estén fuera del control directo del cliente también plantea problemas en cuanto al cumplimiento normativo, especialmente en regiones con regulaciones estrictas, como Europa, y también para cumplir con los acuerdos de nivel de servicio.

Riesgos técnicos: la inteligencia artificial, en muchos casos, se emplea para proporcionar información útil al cliente o usuario para que tome decisiones operativas mejor informadas y con mejores resultados para su negocio. Pero las normas que regulan el funcionamiento de la IA no están al alcance del cliente, sino que dependen del proveedor de servicios, y en muchos casos no es posible modificar de forma ágil y sencilla estos algoritmos, limitando la capacidad de los clientes de cambiar el patrón de análisis de datos y obtención de conclusiones, cuando cambian su criterio.

Riesgo de interoperabilidad: la inteligencia artificial es única en cada centro de datos y, en el momento en que las aplicaciones de diferentes proveedores, o diferentes IAs en el mismo centro de datos deben trabajar en común, se plantean problemas. Si los distintos modelos de IA entran en conflicto se pueden producir errores en la interpretación de los datos. Como ejemplo, los expertos señalan los problemas que podrían presentarse en sistemas automatizados de control climático en edificios inteligentes. Si las cargas de trabajo de automatización de esta infraestructura se trasladan a un centro de datos con un modelo diferente al originalmente diseñado para este edificio, se producirían errores, o se podrían activar los sistemas en otro edificio diferente, al no entenderse bien las órdenes.

Pero esto puede trasladarse a los sistemas de asesoramiento para la toma de decisiones de negocio basados en IA, o a la administración de infraestructuras críticas de gobiernos o empresas, incluso a la propia administración inteligente de datacenter. Lo mismo sucede con los otros riesgos potenciales que conlleva el uso de la inteligencia artificial en los centros de datos, que se acrecentan a medida que el sector cambia hacia un modelo más global e interconectado.

Más información

¿Cuál es el futuro del mercado de almacenamiento? ¿Qué tecnologías son las más adecuadas para las empresas? Si quieres obtener más información sobre un segmento en crecimiento puedes visitar la página de nuestro colaborador HPE.