Der Bau von Rechenzentren gilt als eine der am schnellsten wachsenden Branchen. Die Fortschritte in diesem Bereich sind enorm, aber ob in naher Zukunft bahnbrechende technologische Lösungen auf den Markt kommen werden, ist eine große Frage. Heute werden wir versuchen, die wichtigsten innovativen Trends in der Entwicklung des weltweiten Rechenzentrumsbaus zu berücksichtigen, um darauf zu antworten.
Kurs über Hyperscale
Die Entwicklung der Informationstechnologie hat dazu geführt, dass sehr große Rechenzentren gebaut werden müssen. Hyperscale-Infrastruktur wird hauptsächlich von Cloud-Dienstanbietern und sozialen Netzwerken benötigt: Amazon, Microsoft, IBM, Google und andere wichtige Akteure. Im April 2017 gab es weltweit 320 solcher Rechenzentren und im Dezember bereits 390. Bis 2020 soll die Zahl der hyper-skalierbaren Rechenzentren nach Prognosen von Synergy Research-Spezialisten auf 500 steigen. Die meisten dieser Rechenzentren befinden sich in den USA, und dieser Trend hat sich trotz des schnellen Bautempos im asiatisch-pazifischen Raum fortgesetzt, das von Analysten von Cisco Systems festgestellt wurde .
Alle hyper-skalierbaren Rechenzentren sind Unternehmenszentren und vermieten keinen Rack-Platz. Sie werden verwendet, um öffentliche Clouds zu erstellen, die sich auf das Internet der Dinge und Technologien der künstlichen Intelligenz von Diensten beziehen, sowie in anderen Nischen, in denen die Verarbeitung großer Datenmengen erforderlich ist. Die Eigentümer experimentieren aktiv mit der Erhöhung der Leistungsdichte pro Rack, unverpackten Servern, der Flüssigkeitskühlung, der Erhöhung der Raumtemperatur und einer Vielzahl spezialisierter Lösungen. Angesichts der zunehmenden Beliebtheit von Cloud-Diensten wird Hyperscale in absehbarer Zeit zum Haupttreiber des Branchenwachstums: Hier können Sie die Entstehung interessanter technologischer Lösungen von führenden Herstellern von IT-Geräten und technischen Systemen erwarten.
Boundary Computing
Ein weiterer auffälliger Trend ist genau das Gegenteil: In den letzten Jahren wurde eine Vielzahl von Mikro-Rechenzentren gebaut. Research and Markets prognostiziert, dass dieser Markt von 2 Mrd. USD im Jahr 2017 auf 8 Mrd. USD im Jahr 2022 wachsen wird. Sie verbinden dies mit der Entwicklung des Internet der Dinge und des industriellen Internet der Dinge. Große Rechenzentren sind zu weit von Feldautomatisierungssystemen entfernt. Sie sind mit Aufgaben beschäftigt, für die die Messwerte der Millionen Sensoren nicht erforderlich sind. Die primäre Verarbeitung von Daten erfolgt am besten dort, wo sie generiert werden, und sendet erst dann nützliche Informationen auf langen Wegen in die Cloud. Um dieses Phänomen zu bezeichnen, haben sie einen speziellen Begriff entwickelt - Boundary Computing oder Edge Computing. Unserer Meinung nach ist dies der zweitwichtigste Trend in der Entwicklung des Rechenzentrumsbaus, der zur Entstehung innovativer Produkte auf dem Markt führt.
Kampf um den PUE
Große Rechenzentren verbrauchen viel Strom und erzeugen Wärme, die irgendwie entsorgt werden muss. Herkömmliche Kühlsysteme machen bis zu 40% des Energieverbrauchs der Anlage aus, und Kältekompressoren gelten als Hauptfeind im Kampf um die Senkung der Energiekosten. Zunehmende Popularität, die es Ihnen ermöglicht, ihre Verwendungslösungen mit den sogenannten ganz oder teilweise aufzugeben. Freecooling. Im klassischen Schema werden Kühlsysteme mit Wasser oder wässrigen Lösungen von mehrwertigen Alkoholen (Glykolen) als Wärmeträger verwendet. In der kalten Jahreszeit schaltet sich die Kompressor-Kondensator-Einheit des Kühlers nicht ein, was den Energieverbrauch erheblich reduziert. Interessantere Lösungen basieren auf einem Zweikreis-Luft-Luft-Kreislauf mit rotierenden Wärmetauschern und mit oder ohne adiabatischem Kühlabschnitt. Es werden auch Experimente mit direkter Kühlung durch Außenluft durchgeführt, aber diese Lösungen sind kaum innovativ. Wie klassische Systeme setzen sie die Luftkühlung von IT-Geräten voraus, und die technologische Grenze der Wirksamkeit eines solchen Systems ist bereits praktisch erreicht.
Eine weitere Reduzierung des PUE (Verhältnis des Gesamtenergieverbrauchs zum Energieverbrauch von IT-Geräten) wird auf die wachsende Beliebtheit von Flüssigkeitskühlsystemen zurückzuführen sein. An dieser Stelle sei an das von Microsoft gestartete Projekt zur Schaffung modularer Unterwasser-Rechenzentren sowie an das Konzept der schwimmenden Rechenzentren von Google erinnert. Die Ideen technologischer Giganten sind noch weit von der industriellen Umsetzung entfernt, aber weniger fantastische Flüssigkeitskühlsysteme arbeiten bereits in verschiedenen Einrichtungen, von Supercomputern von Top500 bis hin zu Mikrodatenzentren.
Bei der Kontaktkühlung sind spezielle Kühlkörper im Gerät installiert, in denen Flüssigkeit zirkuliert. Tauchkühlsysteme verwenden ein dielektrisches Arbeitsfluid (normalerweise Mineralöl) und können entweder in Form eines gemeinsamen versiegelten Behälters oder in Form von Einzelfällen für Computermodule hergestellt werden. Auf den ersten Blick ähneln kochende (zweiphasige) Systeme Tauchsystemen. Sie verwenden auch dielektrische Flüssigkeiten in Kontakt mit der Elektronik, aber es gibt einen grundlegenden Unterschied: Die Arbeitsflüssigkeit beginnt bei Temperaturen um 34 ° C (oder etwas höher) zu kochen. Aus dem Verlauf der Physik wissen wir, dass der Prozess mit der Absorption von Energie einhergeht, die Temperatur aufhört zu wachsen und bei weiterer Erwärmung die Flüssigkeit verdampft, d. H. Ein Phasenübergang auftritt. Im oberen Teil des versiegelten Behälters kommen die Dämpfe mit dem Kühler in Kontakt und kondensieren, und die Tröpfchen kehren in das gemeinsame Reservoir zurück. Flüssigkeitskühlsysteme ermöglichen das Erreichen fantastischer PUE-Werte (um 1,03), erfordern jedoch ernsthafte Modifikationen der Computerausrüstung und die Zusammenarbeit zwischen den Herstellern. Heute gelten sie als die innovativsten und vielversprechendsten.
Zusammenfassung
Viele interessante technologische Ansätze wurden erfunden, um moderne Rechenzentren zu schaffen. Hersteller bieten integrierte hyperkonvergente Lösungen an, es werden softwaredefinierte Netzwerke aufgebaut und sogar Rechenzentren selbst werden softwaredefiniert. Um die Effizienz von Anlagen zu steigern, installieren sie nicht nur innovative Kühlsysteme, sondern auch Hardware- und Softwarelösungen der DCIM-Klasse, mit denen der Betrieb der technischen Infrastruktur auf der Grundlage von Daten vieler Sensoren optimiert werden kann. Einige Innovationen erfüllen ihre Erwartungen nicht. Modulare Containerlösungen könnten beispielsweise herkömmliche Rechenzentren aus Beton oder vorgefertigten Metallstrukturen nicht ersetzen, obwohl sie dort aktiv eingesetzt werden, wo Rechenleistung schnell bereitgestellt werden muss. Gleichzeitig werden herkömmliche Rechenzentren selbst modular, jedoch auf einer völlig anderen Ebene. Die Fortschritte in der Branche sind sehr schnell, wenn auch ohne Technologiesprünge - die genannten Innovationen sind vor einigen Jahren erstmals auf den Markt gekommen. 2019 in diesem Sinne wird keine Ausnahme sein und keine offensichtlichen Durchbrüche bringen. Im Zeitalter der Zahlen wird selbst die fantastischste Erfindung schnell zu einer gängigen technischen Lösung.