
Einmal besetzten sie die Spitze der Nahrungskette. Seit Jahrtausenden. Und dann passierte das Undenkbare: Die Wolken schlossen den Himmel und sie hörten auf zu existieren. Am anderen Ende der Welt Ereignisse, die das Klima veränderten: erhöhte Wolkendecke. Dinosaurier wurden zu groß und zu langsam: Ihre Überlebensversuche waren zum Scheitern verurteilt. Höhere Raubtiere beherrschten die Erde 100 Millionen Jahre lang und wurden größer und stärker. Sie entwickelten sich zu einem scheinbar idealen Wesen an der Spitze der Nahrungskette, aber das Universum veränderte sofort das Gesicht unseres Planeten.
Ironischerweise waren es die Wolken, die die Dinosaurier vor 66 Millionen Jahren auslöschten. Auf die gleiche Weise zerstören Clouds heute klassische Datenspeichersysteme, die „an der Spitze der Nahrungskette“ stehen. In beiden Fällen lag das Problem nicht in den Wolken selbst, sondern in der Fähigkeit, sich an eine sich verändernde Welt anzupassen. Bei Dinosauriern ging alles schnell: Die zerstörerische Wirkung der Wolken trat innerhalb von Tagen oder Wochen nach dem Fall des Meteoriten ein (oder nach einem Vulkanausbruch - die Wahl der Theorie bleibt bei Ihnen). Bei klassischen Data Warehouses dauert der Prozess Jahre, ist aber natürlich irreversibel.
Trias: das Zeitalter des großen Eisens und die Entstehung von Migrationsanwendungen
Also, was ist passiert? Im bestehenden Ökosystem gab es Speichersysteme der Einstiegs- und Mittelklasse, Systeme der Unternehmensebene und Direct-Attached-Storage-Systeme (DAS). Diese Kategorien wurden von Analysten ermittelt, hatten ihre eigenen Marktvolumina, Indikatoren für Kosten, Zuverlässigkeit, Leistung und Skalierbarkeit. Und dann passierte etwas Seltsames.
Das Aufkommen virtueller Maschinen bedeutete, dass mehrere Anwendungen, wahrscheinlich mehrere Eigentümer, auf demselben Server ausgeführt werden konnten - solche Änderungen stellten die Zukunft des direkt angeschlossenen Speichers sofort in Frage. Dann entwickelten die Eigentümer der größten hyper-skalierbaren Infrastrukturen (Hyperskalierer): Facebook, Google, eBay usw., die es satt hatten, große Geldsummen für die Speicherung zu zahlen, ihre eigenen Anwendungen, die Daten auf regulären Servern anstelle großer "eiserner" Speichersysteme zur Verfügung stellten. Dann führte Amazon den Markt in etwas Seltsames ein, das Simple Storage Service oder S3 genannt wurde. Kein Block, keine Datei, sondern etwas grundlegend Neues: Es wurde unmöglich, ein System zu kaufen, es wurde möglich, nur einen Dienst zu kaufen. Warten Sie, welche Art von hellem Licht ist am Himmel sichtbar? Noch ein Asteroid?
Jurazeit: die Ära von "gut genug"
Wir sind mit der Ideologie "gut genug" in die Phase der Speicherentwicklung eingetreten. Kunden, die Speicher nutzten, bemerkten, was die Hyperskalierer taten, und stellten die Fairness des zehn- oder sogar hundertfachen Mehrwerts in Frage, der über dem Eisen lag, das sie für ihren Unternehmensspeicher bezahlten. Arrays mit mittlerer Reichweite gewannen Marktanteile bei Top-Level-Systemen. Produkte wie
HPE 3PAR haben ein schnelles Wachstum gezeigt. EMC Symmetrix, einst das dominierende Array (vom Wort "massiv") einer Unternehmensklasse, besaß noch ein gewisses Territorium, nahm jedoch rapide ab. Viele Benutzer begannen, ihre Daten an AWS zu übertragen.
Auf der anderen Seite begannen Speicherinnovatoren, Ideen von Hyperskalierern mithilfe von Technologien verteilter horizontal skalierbarer Systeme auszuleihen - eine Ideologie, die der vertikalen Skalierung entgegengesetzt ist. Es wird erwartet, dass die neue Speichersoftware genau wie Hyperskalierer auf regulären Servern funktionieren kann. Keine 10-100 Mehrfachpreise mehr als die Kosten der Ausrüstung selbst. Theoretisch können Sie jeden Server verwenden - die Auswahl hängt von Ihren Vorlieben ab. Die Ära der softwaredefinierten Speichersysteme (SDS) hat begonnen: Wolken haben den Himmel geschlossen, die Temperaturen sind gesunken und die Population höherer Raubtiere hat begonnen zu sinken.
Kreidezeit: Beginn der Entwicklung softwaredefinierter Speichersysteme
Die Anfänge der softwaredefinierten Speicherung waren stürmisch. Es wurde sehr viel versprochen, aber nur wenige wurden geliefert. Gleichzeitig kam es zu einem wichtigen technologischen Wandel: Der Flash-Speicher ist zu einer modernen Alternative zum „rotierenden Rost“ (HDD) geworden. In dieser Zeit entstanden viele Speicher-Startups und leicht zu verteilende Risikogeldmittel. Ohne ein Problem wäre alles großartig: Die Datenspeicherung erfordert eine ernsthafte Einstellung. Es stellte sich heraus, dass Kunden ihre Daten mögen. Wenn sie den Zugriff auf sie verlieren oder ein paar falsche Bits in Terabyte Daten gefunden werden, sind sie sehr besorgt und besorgt. Die meisten Startups haben nicht überlebt. Kunden erhielten coole Funktionen, aber mit grundlegenden Tools war nicht alles gut. Schlechtes Rezept.
Känozoikum: Speicherarrays dominieren
Nur wenige Leute sprechen darüber, was danach passiert ist, weil es nicht sehr interessant ist - Kunden kaufen weiterhin dieselben klassischen Speicherarrays. Natürlich haben diejenigen, die ihre Anwendungen in die Cloud verschoben haben, die Daten auch dorthin verschoben. Für die überwiegende Mehrheit der Kunden, die nicht vollständig oder vollständig in die Cloud wechseln möchten, bot dasselbe Hewlett Packard Enterprise weiterhin klassische Arrays an.
Wir leben im Jahr 2019. Warum gibt es also noch ein Speichergeschäft im Wert von mehreren Milliarden Dollar, das auf Technologien aus der Zeit des Jahres 2000 basiert? Weil sie funktionieren! Einfach ausgedrückt, wurden die Anforderungen unternehmenskritischer Anwendungen nicht durch Produkte umgesetzt, die auf der Welle des Hype entstanden sind. Produkte wie HPE 3PAR sind nach wie vor die besten Optionen für Unternehmenskunden, und die neue Evolutionsrunde der HPE 3PAR-Architektur -
HPE Primera - bestätigt dies nur.
Die Funktionen des softwaredefinierten Speichers waren wiederum hervorragend: horizontale Skalierbarkeit, Verwendung von Standardservern ... Die Amortisation dafür war jedoch: instabile Verfügbarkeit, unvorhersehbare Leistung und spezifische Skalierbarkeitsregeln.
Die Komplexität der Kundenanforderungen besteht darin, dass sie niemals einfacher werden. Niemand wird sagen, dass ein Verlust der Datenintegrität oder längere Ausfallzeiten akzeptabel sind. Aus diesem Grund ist Architektur für Speichersysteme so wichtig, die gleichzeitig die Anforderungen moderner, sich schnell entwickelnder Rechenzentren erfüllen und gleichzeitig auf der Suche nach einem Kompromiss keine Schlüsselmerkmale von Speichersystemen der Enterprise-Klasse aufweisen.
Tertiärperiode: die Entstehung neuer Lebensformen
Versuchen wir herauszufinden, wie einer der Neulinge auf dem Speichermarkt - Datera - es geschafft hat, mit einer so schwierigen Mischung aus historisch etablierten und neuen Speicheranforderungen fertig zu werden. Zunächst aufgrund der Implementierung einer Architektur, die auf die Lösung des oben beschriebenen Dilemmas ausgerichtet ist. Es ist unmöglich, die alte Architektur zu modifizieren, um die Probleme eines modernen Rechenzentrums zu lösen, ebenso wie es unmöglich ist, die Architektur eines durchschnittlichen softwaredefinierten Speichersystems zu modifizieren, um die Anforderungen für Systeme der Enterprise-Klasse zu erfüllen: Dinosaurier wurden keine Säugetiere, weil die Temperatur sank.
Es ist keine leichte Aufgabe, eine Lösung zu entwickeln, die den Anforderungen des Speichers der Enterprise-Klasse entspricht und gleichzeitig den gesamten Wert der Dynamik eines modernen Rechenzentrums berücksichtigt, aber genau das wollte Datera. Datera-Spezialisten arbeiten seit fünf Jahren daran und haben ein Rezept für die „Vorbereitung“ eines softwaredefinierten Speichersystems der Enterprise-Klasse gefunden.
Die Hauptschwierigkeit, auf die Datera stieß, bestand darin, dass der logische UND-Operator anstelle des merklich einfacheren ODER verwendet werden musste. Stabile Verfügbarkeit, vorhersehbare „UND“ -Leistung, „UND“ -Skalierbarkeit der Architektur, „UND“ orchestrierungsähnlicher Code, „UND“ standardisierte Geräte, „UND“ -Implementierung von Verwaltungsrichtlinien, „UND“ -Flexibilität, „UND“ -Analyseverwaltung, "UND" -Sicherheit, "UND" -Integration in offene Ökosysteme. Der logische Operator "AND" ist ein Zeichen länger als "OR" - dies ist der Hauptunterschied.
Quartärzeitraum: Moderne Rechenzentren und der dramatische Klimawandel bestimmen die Entwicklung softwaredefinierter Speicher
Wie hat Datera eine Architektur geschaffen, die den Anforderungen traditioneller Speichersysteme der Enterprise-Klasse entspricht und gleichzeitig die Anforderungen eines modernen Rechenzentrums erfüllt? Es kommt alles wieder auf diesen nervigen UND-Operator an.
Es war sinnlos, jeweils eine Aufgabe zu lösen, um die individuellen Anforderungen zu erfüllen. Die Summe solcher Elemente wird kein einziges Ganzes. Wie in jedem komplexen System war auch hier die sorgfältige Untersuchung des gesamten Komplexes ausgewogener Kompromisse wichtig. Während der Entwicklung konzentrierten sich die Datera-Spezialisten auf drei Hauptprinzipien:
- anwendungsspezifisches Management;
- ein einziger Mechanismus zur Gewährleistung der Datenflexibilität;
- hohe Produktivität durch reduzierte Gemeinkosten.
Eine gemeinsame Eigenschaft dieser Prinzipien ist die Einfachheit. Einfache Systemverwaltung, einfache Datenverwaltung mit einem einzigen eleganten Mechanismus und Bereitstellung vorhersehbarer (und hoher) Leistung durch Kostensenkung. Warum ist Einfachheit so wichtig? Erfahrene Meister aus der Speicherwelt wissen, dass es nicht möglich ist, die Speicheranforderungen für ein modernes, dynamisches Rechenzentrum zu erfüllen, indem nur eine granulare Steuerung, viele Datenverwaltungstools und eine Hyperoptimierung verwendet werden, um die Produktivität zu steigern. Wir kennen bereits den Komplex solcher Techniken wie den Dinosaurier des Speichersystems.
Die Vertrautheit mit diesen Prinzipien hat der Datera gut gedient. Die von ihnen entwickelte Architektur hat einerseits die Verfügbarkeit, Leistung und Skalierbarkeit eines modernen Speichersystems der Enterprise-Klasse und andererseits die Flexibilität und Geschwindigkeit, die für ein modernes softwaredefiniertes Rechenzentrum erforderlich sind.
Verfügbarkeit von Datera in Russland
Datera ist ein globaler Technologiepartner für Hewlett Packard Enterprise. Datera-Produkte werden auf Kompatibilität und Leistung mit verschiedenen
HPE ProLiant- Servermodellen getestet.
Weitere Informationen zur Datera-Architektur finden Sie im
HPE-Webinar am 31. Oktober.