Warum Festplatten weniger wahrscheinlich ausfallen

Die Beschädigung von Festplatten ist einer der Hauptgründe für Serverausfälle in Rechenzentren. In letzter Zeit ist die Anzahl der Festplattenfehler jedoch zurückgegangen. Lassen Sie uns erklären, warum dies passiert.


/ Foto William Warby CC BY

Ein bisschen Rückblick


Vor zwanzig Jahren war eine Festplatte eine der „Schwachstellen“ eines Computers oder Servers. Es gibt eine bekannte Geschichte mit IBM Deskstar- Laufwerken, die auch nach kurzer Verwendung fehlgeschlagen sind . Diese Discs gelten als eine der unzuverlässigsten kommerziellen Festplatten, für die sie den gebräuchlichen Spitznamen Deathstar ("Death Star") erhielten.

Deskstar hat einen langen Schatten auf die Festplattenindustrie geworfen. Viele Hersteller haben begonnen, die Garantiezeiten für ihre Geräte freiwillig zu verkürzen. In einigen Fällen gingen sie von drei auf ein Jahr zurück. Im Laufe der Zeit tauchten jedoch neue Technologien auf, die die Zuverlässigkeit der Festplatte erhöhten. Laut einer Studie eines der größten westlichen Cloud-Anbieter im Jahr 2018 betrug die Ausfallrate (AFR) von Festplatten in seinem Rechenzentrum 1,25%. Zum Vergleich: 2016 und 2017 betrug der AFR-Wert 1,95% bzw. 1,77%.

Die Experten der IT-Branche verbinden die Reduzierung der Anzahl von Festplattenausfällen mit der Entwicklung von Technologie sowohl in den Laufwerken selbst als auch in den Rechenzentren. Betrachten Sie einige dieser Lösungen.

Heliumkammern


Einige moderne Festplattenhersteller füllen mit Helium. Die Heliumdichte ist siebenmal niedriger als die Luftdichte. Dieses Merkmal verringert die Reibungskraft, die auf sich bewegende Komponenten wirkt, und verringert die Kraft der Gasströme, was die Genauigkeit der Positionierung der Leseköpfe beeinflusst. Darüber hinaus eliminiert die Technologie das Risiko der Korrosion von HDD-Elementen, da das Heliummedium keinen Wasserdampf enthält. All dies erhöht den geschätzten Lebenszyklus von Festplatten.

Laut einer vor einigen Jahren durchgeführten HGST- Studie, die auf Statistiken von Netflix, Huawei und HP basiert, ist die Lebensdauer von Helium-Festplatten doppelt so hoch wie die von klassischen Festplatten. Aus diesem Grund wächst der Umsatz mit Heliumplatten von Jahr zu Jahr, und die Geräte selbst werden zunehmend in Rechenzentren von Cloud-Anbietern eingesetzt.

Verbesserung der Rechenzentrumsbedingungen


Ein weiterer Grund für die Verbesserung der Zuverlässigkeit von HDD-Experten in der Branche war die Verbesserung der Bedingungen in Rechenzentren. Die Lebensdauer von Festplatten hängt direkt von ihrer Umgebungstemperatur ab. Seagate stellt fest, dass eine Temperatur von 30 ° C optimal ist. Wenn es über 50 ° C oder unter 5 ° C liegt, steigt die Anzahl der Fehler erheblich an.

Daher entwickeln IT-Unternehmen neue Klimatisierungslösungen, die die optimale Temperatur im Serverraum aufrechterhalten. Zum Beispiel führte Facebook die Verdunstungskühlungstechnologie für Rechenzentren ein. Das Wasser für das System wird in einem speziellen Wärmetauscher gekühlt und durch eine spezielle Membranschicht verdampft. Diese Flüssigkeit wird dann verwendet, um die Temperatur im Maschinenraum zu senken.

Neben neuen Kühlsystemen werden auch Lösungen für deren Management entwickelt. Insbesondere basierend auf maschinellem Lernen. Solche Systeme verwenden Sensoren, die Temperaturdaten außerhalb und innerhalb des Rechenzentrums erfassen. Diese Informationen werden dann vom Steuermodul verwendet, um die Belüftung einzustellen - es reguliert die Temperatur, indem es mehr oder weniger Luft von der Straße nimmt.

In einem unserer Blog- Materialien haben wir ausführlicher darüber geschrieben, wie KI-Systeme zur Kühlung von Rechenzentren beitragen.

Entwicklung „interner“ HDD-Technologien


Die Anzahl der Festplattenfehler wird auch von der Luftfeuchtigkeit beeinflusst. Sie bestimmt die Höhe, in der sich der Lesekopf sicher befinden kann, um die magnetische Oberfläche nicht zu beschädigen. Um dieses Problem zu lösen, führen Plattenhersteller Technologien ein, die die Bewegung des Kopfblocks in Abhängigkeit von den Betriebsbedingungen konfigurieren.

Ein Beispiel für eine solche Technologie wären RV-Sensoren oder Rotationsvibrationssensoren. Das eingebaute Steuermodul ändert anhand seiner Messwerte die Art der Bewegung des Kopfblocks und verteilt die Vibrationen auf besondere Weise auf den Gerätekörper. RV-Sensoren befinden sich häufig in Laufwerken, die für die Verwendung in Festplatten-Arrays von Seagate, Toshiba und Western Digital ausgelegt sind.


/ Foto mittlerweile dan PD

Über die Zuverlässigkeit alternativer Laufwerke


Der Hauptkonkurrent von Festplatten, einschließlich Rechenzentren, sind heute SSDs. Laut Statistik ist die Anzahl der Ausfälle von SSDs geringer als die einer Festplatte. Mit zunehmendem Alter der "Festkörperarbeiter" wächst die Anzahl der Lesefehler jedoch doppelt so schnell. Um dieses Problem zu lösen, entwickeln SSD-Hersteller Fehlerkorrekturmethoden, die die Zuverlässigkeit und Lebensdauer von Geräten erhöhen sollen.

Eine dieser Methoden ist die SSD-Aktualisierung ( S. 32 ). Wenn auf einzelne Zellen des Laufwerks längere Zeit nicht zugegriffen wird, verlieren sie allmählich die Ladung. Dies kann zum Verlust einiger Daten führen. Daher liest die Antriebssteuerung von Zeit zu Zeit Informationen in nicht verwendeten Zellen, wertet ihren aktuellen Status aus und „lädt“ sie auf.

Eine andere Technologie, die weiterhin in Rechenzentren verwendet wird, ist Magnetband. Im Bericht über Datenspeichertrends für 2018 wurde das Band nach Festplatte, SDD und Cloud zum viertbeliebtesten Speicher (wir sprechen über verschiedene Optionen zum Speichern von Unternehmensdaten, nicht über Speichermethoden als solche). Magnetbänder werden hauptsächlich aufgrund ihrer Zuverlässigkeit verwendet: Fehler auf diesem Laufwerk treten vier bis fünf Größenordnungen weniger auf als bei Festplatten.

Gleichzeitig werden immer noch neue Technologien entwickelt, um die Lebensdauer des Films zu verlängern. Im Jahr 2017 haben IBM und Sony ein Magnetband erstellt, das zum Schutz mit einer zusätzlichen Schmiermittelschicht versehen wurde. Diese Schicht verringert das Risiko einer Beschädigung des Bandes, wenn es sich mit einer Geschwindigkeit von 10 Metern pro Sekunde bewegt.

Es gibt experimentellere Speichertechnologien, deren Zuverlässigkeit theoretisch die Leistung klassischer Laufwerke erheblich übertreffen kann. Zum Beispiel wird DNA- Molekülen ein großes Potenzial als langfristiger Träger in der IT-Community vorausgesagt.

Die Entwickler von DNA-Repositories planen, die Moleküle in Glaskapseln zu versiegeln , wo sie vor schädlichen Umweltbedingungen isoliert werden. Auf diese Weise können Sie digitale Daten, die in ihnen codiert sind, Tausende von Jahren fehlerfrei speichern. Ein solches Speichermedium könnte in den kommenden Jahren Realität werden: Microsoft plante die Einführung eines DNA-Speichers in einem seiner Rechenzentren.

Solche Lösungen sind jedoch noch experimentell und nicht für eine breite Anwendung ausgelegt. Daher bleibt eine der beliebtesten Methoden zum Speichern von Informationen in Rechenzentren die Festplatte. Und angesichts der Tatsache, dass ihre Zuverlässigkeit zunimmt, wird die Festplatte noch lange bei uns bleiben.



Ressourcen aus dem ersten Corporate IaaS-Blog:


Beiträge aus unserem Telegrammkanal:

Source: https://habr.com/ru/post/de440322/


All Articles