Dans le processus de transformation numérique de l'économie, l'humanité doit construire de plus en plus de centres de données. Les centres de données eux-mêmes doivent également être transformés: les questions de leur tolérance aux pannes et de leur efficacité énergétique sont désormais plus importantes que jamais. Les installations consomment une énorme quantité d'électricité et les défaillances de l'infrastructure informatique critique qui s'y trouve coûtent cher à l'entreprise. À l'aide des ingénieurs viennent les technologies de l'intelligence artificielle et de l'apprentissage automatique - ces dernières années, elles ont été de plus en plus utilisées pour créer des centres de données plus avancés. Cette approche augmente la disponibilité des installations, réduit le nombre de pannes et réduit les coûts d'exploitation.
Comment ça marche?
Les technologies d'intelligence artificielle et d'apprentissage automatique sont utilisées pour automatiser l'adoption de décisions opérationnelles basées sur les données collectées à partir de divers capteurs. En règle générale, ces outils sont intégrés aux systèmes DCIM (Data Center Infrastructure Management) et permettent de prévoir l'occurrence de situations d'urgence, ainsi que d'optimiser le fonctionnement des équipements informatiques, des infrastructures d'ingénierie et même du personnel. Très souvent, les fabricants proposent aux propriétaires de centres de données des services cloud qui collectent et traitent les données de nombreux clients. Ces systèmes résument l'expérience d'exploitation de différents centres de données, par conséquent, ils fonctionnent mieux que les produits locaux.
Gestion de l'infrastructure informatique
HPE promeut le service d' analyse prédictive InfoSight Cloud pour la gestion de l'infrastructure informatique basée sur Nimble Storage et les systèmes de stockage HPE 3PAR StoreServ, les serveurs HPE ProLiant DL / ML / BL, les systèmes de rack HPE Apollo et la plate-forme HPE Synergy. InfoSight analyse les lectures des capteurs installés dans l'équipement, traitant plus d'un million d'événements par seconde et constamment auto-apprenant. Le service détecte non seulement les dysfonctionnements, mais prévoit également les éventuels problèmes avec l'infrastructure informatique (pannes matérielles, épuisement de la capacité de stockage, performances des machines virtuelles réduites, etc.) avant même qu'ils ne se produisent. Pour l'analyse prédictive, le logiciel VoltDB est déployé dans le cloud, à l'aide de modèles de prévision autorégressifs et de méthodes probabilistes. Une solution similaire est également disponible pour les systèmes de stockage hybrides Tegile Systems: le service cloud IntelliCare Cloud Analytics surveille l'état, les performances et l'utilisation des ressources de l'appareil. Les technologies d'intelligence artificielle et d'apprentissage automatique sont également utilisées par Dell EMC dans leurs solutions informatiques hautes performances. Il existe de nombreux exemples similaires, presque tous les principaux fabricants d'équipements informatiques et de systèmes de stockage de données empruntent désormais cette voie.
Alimentation et refroidissement
Un autre domaine d'application de l'IA dans les datacenters est associé à la gestion des infrastructures d'ingénierie et surtout au refroidissement, dont la part dans la consommation énergétique totale d'un objet peut dépasser 30%. Google a été l'un des premiers à penser au refroidissement intelligent: en 2016, avec DeepMind, il a développé un système d'intelligence artificielle pour surveiller les composants individuels du centre de données, ce qui a permis de réduire la consommation d'énergie de la climatisation de 40%. Initialement, il ne donnait que des conseils au personnel, mais a été affiné par la suite et peut désormais contrôler seul le refroidissement des salles des machines. Un réseau neuronal déployé dans le cloud traite les données de milliers de capteurs internes et externes: il prend des décisions en tenant compte de la charge sur les serveurs, de la température, ainsi que de la vitesse du vent dans la rue et de nombreux autres paramètres. Les instructions proposées par le système cloud sont envoyées au centre de données et là encore, elles sont vérifiées pour la sécurité par les systèmes locaux, tandis que le personnel peut toujours désactiver le mode automatique et commencer à contrôler le refroidissement manuellement. Nlyte Software, en collaboration avec l'équipe IBM Watson, a créé une solution qui collecte des données sur la température et l'humidité, la consommation électrique et la charge de travail des équipements informatiques. Il vous permet d'optimiser le travail des sous-systèmes d'ingénierie et ne nécessite pas de connexion à l'infrastructure cloud du fabricant - si nécessaire, la solution peut être déployée directement dans le centre de données.
Autres exemples
Il existe de nombreuses solutions intelligentes innovantes pour les centres de données sur le marché et de nouvelles apparaissent constamment. Wave2Wave a créé un système robotique de commutation de câbles à fibre optique pour l'organisation automatisée des connexions croisées dans les nœuds d'échange de trafic (Meet Me Room) à l'intérieur du centre de données. Le système développé par le ROOT Data Center et LitBit utilise l'IA pour surveiller les générateurs diesel de secours, et Romonet a créé une solution logicielle d'auto-apprentissage pour optimiser l'infrastructure. Les solutions créées par Vigilent utilisent l'apprentissage automatique pour prévoir les pannes et optimiser les conditions de température dans le centre de données. L'introduction de l'intelligence artificielle, de l'apprentissage automatique et d'autres technologies innovantes dans les centres de données pour l'automatisation des processus a commencé relativement récemment, mais c'est aujourd'hui l'un des domaines les plus prometteurs du développement de l'industrie. Les centres de données modernes sont devenus trop grands et trop complexes pour être gérés efficacement manuellement.