Im Zuge der digitalen Transformation der Wirtschaft muss die Menschheit immer mehr Rechenzentren bauen. Rechenzentren selbst müssen ebenfalls transformiert werden: Die Probleme ihrer Fehlertoleranz und Energieeffizienz sind heute wichtiger denn je. Einrichtungen verbrauchen eine große Menge Strom, und Ausfälle der darin enthaltenen kritischen IT-Infrastruktur kosten das Unternehmen viel Geld. Zur Unterstützung der Ingenieure kommen die Technologien der künstlichen Intelligenz und des maschinellen Lernens - in den letzten Jahren wurden sie zunehmend zur Schaffung fortschrittlicherer Rechenzentren eingesetzt. Dieser Ansatz erhöht die Verfügbarkeit von Einrichtungen, verringert die Anzahl der Ausfälle und senkt die Betriebskosten.
Wie funktioniert es
Künstliche Intelligenz und Technologien für maschinelles Lernen werden verwendet, um die Annahme von Betriebsentscheidungen auf der Grundlage von Daten zu automatisieren, die von verschiedenen Sensoren gesammelt wurden. In der Regel sind solche Tools in DCIM-Systeme (Data Center Infrastructure Management) integriert und ermöglichen die Vorhersage des Auftretens von Notfallsituationen sowie die Optimierung des Betriebs von IT-Geräten, technischer Infrastruktur und sogar von Mitarbeitern. Sehr oft bieten Hersteller Cloud-Services für Rechenzentrumsbesitzer an, die Daten von vielen Kunden sammeln und verarbeiten. Solche Systeme fassen die Betriebserfahrung verschiedener Rechenzentren zusammen und funktionieren daher besser als lokale Produkte.
IT-Infrastrukturmanagement
HPE fördert den Predictive Analysis Service von InfoSight Cloud für die Verwaltung der IT-Infrastruktur auf der Basis von Nimble Storage- und HPE 3PAR StoreServ-Speichersystemen, HPE ProLiant DL / ML / BL-Servern, HPE Apollo Rack-Systemen und HPE Synergy Platform. InfoSight analysiert die Messwerte der in den Geräten installierten Sensoren, verarbeitet mehr als eine Million Ereignisse pro Sekunde und lernt ständig selbst. Der Dienst erkennt nicht nur Fehlfunktionen, sondern prognostiziert auch mögliche Probleme mit der IT-Infrastruktur (Geräteausfälle, Erschöpfung der Speicherkapazität, Leistungsabfall der virtuellen Maschine usw.), noch bevor sie auftreten. Für die prädiktive Analyse wird die VoltDB-Software in der Cloud mithilfe autoregressiver Prognosemodelle und probabilistischer Methoden bereitgestellt. Eine ähnliche Lösung ist auch für Hybridspeichersysteme von Tegile Systems verfügbar: Der Cloud-Service IntelliCare Cloud Analytics überwacht den Status, die Leistung und die Verwendung von Geräteressourcen. Künstliche Intelligenz und Technologie für maschinelles Lernen werden auch von Dell EMC in seinen Hochleistungs-Computerlösungen verwendet. Es gibt viele ähnliche Beispiele, fast alle führenden Hersteller von Computergeräten und Datenspeichersystemen gehen diesen Weg.
Stromversorgung und Kühlung
Ein weiterer Anwendungsbereich von KI in Rechenzentren ist das Management der technischen Infrastruktur und vor allem die Kühlung, deren Anteil am Gesamtenergieverbrauch eines Objekts 30% überschreiten kann. Google war einer der ersten, der über intelligente Kühlung nachdachte: 2016 entwickelte Google zusammen mit DeepMind ein künstliches Intelligenzsystem zur Überwachung einzelner Komponenten des Rechenzentrums, mit dem die Energiekosten für die Klimatisierung um 40% gesenkt werden konnten. Anfangs gab es nur Hinweise für das Personal, wurde aber später verfeinert und kann nun die Kühlung von Maschinenräumen selbst steuern. Ein in der Cloud bereitgestelltes neuronales Netzwerk verarbeitet Daten von Tausenden von internen und externen Sensoren: Es trifft Entscheidungen unter Berücksichtigung der Belastung der Server, der Temperatur sowie der Windgeschwindigkeit auf der Straße und vieler anderer Parameter. Die vom Cloud-System angebotenen Anweisungen werden an das Rechenzentrum gesendet und dort erneut von lokalen Systemen auf Sicherheit überprüft, während die Mitarbeiter den automatischen Modus jederzeit ausschalten und die Kühlung manuell steuern können. Nlyte Software hat zusammen mit dem IBM Watson-Team eine Lösung entwickelt , die Daten zu Temperatur und Luftfeuchtigkeit, Stromverbrauch und Arbeitsbelastung von IT-Geräten sammelt. Sie können damit die Arbeit von Engineering-Subsystemen optimieren und benötigen keine Verbindung zur Cloud-Infrastruktur des Herstellers. Bei Bedarf kann die Lösung direkt im Rechenzentrum bereitgestellt werden.
Andere Beispiele
Es gibt viele innovative intelligente Lösungen für Rechenzentren auf dem Markt, und es erscheinen ständig neue. Wave2Wave hat ein Roboter-Glasfaserkabel-Vermittlungssystem für die automatisierte Organisation von Querverbindungen in Verkehrsknoten (Meet Me Room) im Rechenzentrum entwickelt. Das vom ROOT Data Center und LitBit entwickelte System verwendet AI zur Überwachung von Standby-Dieselgeneratoren, und Romonet hat eine selbstlernende Softwarelösung zur Optimierung der Infrastruktur entwickelt. Die von Vigilent entwickelten Lösungen verwenden maschinelles Lernen, um Fehler vorherzusagen und die Temperaturbedingungen im Rechenzentrum zu optimieren. Die Einführung von künstlicher Intelligenz, maschinellem Lernen und anderen innovativen Technologien in Rechenzentren für die Prozessautomatisierung begann vor relativ kurzer Zeit, ist jedoch heute einer der vielversprechendsten Bereiche der Branchenentwicklung. Moderne Rechenzentren sind zu groß und komplex geworden, um effektiv manuell verwaltet zu werden.