Daten an der Grenze: So erstellen Sie eine neue IT-Architektur

TĂ€glich erstellen immer mehr GerĂ€te mehr Daten. Sie mĂŒssen an verschiedenen Stellen verwaltet werden und nicht in mehreren zentralen Cloud-Rechenzentren. Mit anderen Worten, der Verwaltungsprozess geht ĂŒber die Grenzen herkömmlicher Rechenzentren hinaus und bewegt sich an den Ort, an dem die Daten erstellt werden - an die Peripherie des Netzwerks, nĂ€her an den Endbenutzern. Hier werden Daten von verschiedenen Sensoren, Kameras, GerĂ€ten und Internet of Things (IoT) -GerĂ€ten generiert. Wenn die Ergebnisse ihrer Arbeit direkt an der Netzwerkgrenze gesammelt und verarbeitet werden, können sie viel schneller analysiert und verwendet werden.



Laut Gartner-Experten werden bis 2020 mehr als 50% aller von Unternehmen generierten Daten außerhalb der traditionellen Rechenzentren oder der Cloud-Umgebung verarbeitet (heute sind es nur noch 10%). In dieser Architektur funktionieren 5,6 Milliarden IoT-GerĂ€te (Internet of Things). Gleichzeitig werden die von GerĂ€ten erzeugten Datenmengen in Terabyte berechnet und mĂŒssen hĂ€ufig in Echtzeit interpretiert und analysiert werden.

Um Partnern und Kunden dabei zu helfen, diesen Trend zu erkunden, hat sich Seagate mit einem Konsortium von Unternehmen zusammengetan, die sich auf Peripherie-Computing spezialisiert haben, und den Data at the Edge- Bericht veröffentlicht. Es wurden auch die Ergebnisse einer von IDC durchgefĂŒhrten Studie verwendet . Ziel des Berichts war es, einige der Datenprobleme zu veranschaulichen, die fĂŒr Unternehmen heute relevant sind, und zu zeigen, wie Unternehmen ihre IT-Ressourcen besser verwalten können.

Peripheres Rechnen


„Die Akteure auf dem Speichermarkt haben mehrere Phasen in der Entwicklung ihres GeschĂ€fts durchlaufen. Vor einigen Jahrzehnten galten Speicher fĂŒr Serversysteme als vielversprechend, dann standen lokale Rechenzentren im Rampenlicht. Dies spiegelte sich in den Produktlinien der Anbieter wider: Sie begannen, Laufwerke fĂŒr dieses Segment zu produzieren. Dann begann die Entwicklung von Cloud-Speicher, Cloud-Computing. Der nĂ€chste Schritt ist das Peripherie-Computing “, sagt Alexander Malinin, Direktor der Seagate-ReprĂ€sentanz in Russland und der GUS. - Da es viele Daten gibt, die nicht nur von Menschen, sondern auch von Maschinen generiert werden, ist es nicht immer optimal, all dies an das Rechenzentrum zu senden. Es ist sinnvoll, einen Teil der Berechnungen außerhalb der Rechenzentren durchzufĂŒhren und die verarbeiteten Ergebnisse in das Rechenzentrum zu ĂŒbertragen. TatsĂ€chlich ist dies die Schaffung einer weiteren Berechnungsschaltung, in der Daten gesammelt, einige Zeit gespeichert, verarbeitet und zur weiteren Speicherung und zum Zugriff auf das Hauptdatenzentrum ĂŒbertragen werden. "

Da weiterhin Milliarden von GerĂ€ten eine Verbindung zum Netzwerk herstellen und Zettabyte an Daten sammeln und generieren, erfordern die heutigen zentralisierten Cloud-Umgebungen die UnterstĂŒtzung einer neuen peripheren IT-Architektur. Indem Sie Computer-, Netzwerk- und Speicherressourcen in unmittelbarer NĂ€he dieser GerĂ€te platzieren, können Sie Daten direkt vor Ort analysieren.

Aufgrund der Tatsache, dass die Daten an derselben Stelle, an der sie erstellt wurden, einer PrimÀrverarbeitung unterzogen werden, kann ein Teil der Verwaltungsentscheidungen (z. B. zur Anpassung der Betriebsart von Industrieanlagen) mit minimaler Verzögerung lokal getroffen werden.

Die Peripherie kann sich ĂŒberall befinden: von FabrikgeschĂ€ften bis zu Bauernhöfen, auf DĂ€chern von HĂ€usern und auf ZelltĂŒrmen, in allen Fahrzeugen an Land, auf See und in der Luft. Als Außengrenze eines Netzwerks befindet es sich hĂ€ufig Hunderte von Kilometern vom nĂ€chsten Unternehmens- oder Cloud-Rechenzentrum entfernt und sehr nahe an der Datenquelle.

Laut einer IDC-Studie werden bis 2020 45% aller von IoT-GerĂ€ten generierten Daten in oder in der NĂ€he der Grenzsegmente des Netzwerks gespeichert und verarbeitet. In vielen FĂ€llen ist es besser, den Rechenprozess an die Peripherie zu verlagern. In „Smart Cities“ reduziert die Verarbeitung und Analyse von Daten, die nĂ€her an der Quelle liegen, die Verzögerungszeit und ermöglicht es verschiedenen Diensten, schneller auf die Situation zu reagieren.

In intelligenten Transportsystemen können Sie mit Peripherie-Computing Informationen lokal verarbeiten und nur die wichtigsten Daten an die Cloud senden. Diese Technologie wird bereits in intelligenten Verkehrssystemen eingesetzt. Dieser Ansatz verbessert auch die Sicherheit und Effizienz des Transports. Selbstfahrende Autos mĂŒssen sofort auf die empfangenen Daten reagieren, da selbst die geringste Verzögerung gefĂ€hrlich sein kann.

Die Verbreitung von Peripherie-Computing erfordert eine neue Infrastruktur zum Speichern und Verwalten von Daten. Beispielsweise erstellt eine Smart Factory etwa 5 Petabyte Video pro Tag, eine Smart City mit 1 Million Einwohnern - 200 Petabyte Daten pro Tag und ein autonomes Auto - 4 Terabyte.



Was bedeuten diese Daten an der Grenze? Wie wird sich eine solche Entwicklung auf die Struktur und Funktionsweise bestehender Rechenzentren und Cloud-Rechenzentren auswirken? Könnte Cloud Computing, das heute vorherrscht, das Peripherie-Computing ersetzen, weil es flexibler und in Bezug auf Anwendungen skalierbar ist?

Wolken und PeripheriegerÀte


Die Autoren des Berichts „ Data at the Edge “ betonen, dass Peripherie-Computing zwar eine effizientere Nutzung von Daten ermöglicht, die traditionelle Infrastruktur jedoch nicht an Bedeutung verliert. Da große Datenmengen außerhalb traditioneller Zentren ihrer Verarbeitung erstellt werden, wird die Cloud bis zur Peripherie erweitert. Das heißt, es geht nicht um das Szenario „Wolke gegen die Peripherie“, sondern um die „Wolke mit der Peripherie“.



Laut Analysten kostet die Kombination von Cloud- und Peripherie-Computing nur 36% der Kosten einer reinen Cloud-Version, und die ĂŒbertragene Datenmenge wird um 95% reduziert.

Die Zukunft liegt also in der gemeinsamen Arbeit von Peripherie und Cloud. Auf diese Weise können Unternehmen sofort fundiertere Entscheidungen treffen, ihre ProduktivitĂ€t steigern, effizienter arbeiten und die KundenbedĂŒrfnisse besser erfĂŒllen.

Datenbasiertes GeschÀft


Heutzutage ist fast jedes Unternehmen oder jede Organisation mit der Verarbeitung und Speicherung von Daten verbunden. Innovationen im Informationsmanagement ebneten den Weg fĂŒr effizientere Einsatzmöglichkeiten. Dies gilt auch fĂŒr Peripheriedaten.



Laut McKinsey wird der weltweite Markt fĂŒr PeripheriegerĂ€te bis 2025 175 bis 215 Milliarden US-Dollar erreichen.

PeripheriegerÀte und Leben


Was bedeutet dies fĂŒr große Unternehmen, StĂ€dte, kleine Unternehmen und einzelne Verbraucher, was sind die Vorteile? Wie helfen uns Daten an der Peripherie, besser zu arbeiten, uns zu entspannen, zu leben und zu reisen? Welche Möglichkeiten zur Datenanalyse ergeben sich am Rande des Netzwerks? Dies sind die Fragen, die der Seagate-Bericht beantwortet.

Data at the Edge bietet mehrere Beispiele dafĂŒr, wie Peripherie-Computing das globale GeschĂ€ft heute verĂ€ndert und den Menschen zugute kommt. In Chile beispielsweise reduziert ein mit Sensoren ausgestattetes BewĂ€sserungssystem mit kĂŒnstlicher Intelligenz den Wasserverbrauch um 70%.

Aber was passiert in den eigenen Fabriken von Seagate? Das Unternehmen produziert vierteljĂ€hrlich Millionen von Einheiten und jĂ€hrlich Milliarden von Sensoren. Dies erfordert die EinfĂŒhrung hochautomatisierter Prozesse, und das System muss 20 bis 30 Entscheidungen pro Sekunde treffen. Bei dieser Geschwindigkeit bleibt keine Zeit zu warten, bis die auf der Produktionslinie gesammelten Daten zur Verarbeitung an das Zentrum gesendet werden, und von dort kommt eine Lösung.



Wir können die Produktionslinie nicht stoppen: Wir mĂŒssen das Produktionstempo beibehalten und gleichzeitig die hohe QualitĂ€t sicherstellen. Entscheidungen mĂŒssen also an derselben Stelle getroffen werden, an der die Daten generiert werden. Zu diesem Zweck hat Seagate eine eigene Technologie zur Erkennung von Anomalien und zur Analyse von Bildern auf dem WerksgelĂ€nde entwickelt. Dies reduziert die Latenz von Hunderten auf weniger als 10 Millisekunden.

Peripherie-Computing in Russland


„Wie weit verbreitet sind PeripheriegerĂ€te in Russland? Erstens braucht die EinfĂŒhrung neuer Technologien Zeit. Zweitens ist der Begriff "Peripherie-Computing" selbst noch nicht in Gebrauch gekommen. Das heißt, auch wenn das Unternehmen diesen Ansatz verwendet, nennt es ihn anders “, erklĂ€rt Alexander Malinin. - In der Zwischenzeit wird Peripherie-Computing hĂ€ufig eingesetzt, beispielsweise in der GeodĂ€sie, in der Öl- und Gasindustrie. Vermessungsdaten werden in einem kleinen lokalen Rechenzentrum gesammelt und verarbeitet und dann an ein zentrales Repository gesendet. Peripherie-Computing wird auch in der Öl- und Gasindustrie eingesetzt, wo eine große Datenmenge gesammelt wird und nicht alle gespeichert werden mĂŒssen. “

„Mit der Entwicklung der Telekommunikation und der zunehmenden Geschwindigkeit der DatenĂŒbertragung wird die Anzahl der peripheren Rechenzentren nur noch zunehmen“, fĂ€hrt Alexander Malinin fort. - Ja, und der Begriff "Peripherie-Computing" selbst wird weiter verbreitet sein. Die Datenspeicherbranche hat etwas zu bieten. Es gibt verschiedene Speichertechnologien, die unterschiedliche Aufgaben erfĂŒllen, es gibt mathematische Algorithmen fĂŒr die Datenanalyse. Das Hauptproblem liegt nun in der Telekommunikationstechnologie beim Erhalten von Daten. Beispielsweise bietet das Internet der Dinge eine weit verbreitete Nutzung drahtloser Verbindungen. Dies erfordert die Bereitstellung von drahtlosen Netzwerken wie 5G. Ähnliche Prozesse fanden mit der EinfĂŒhrung der Big-Data-Technologie statt. Sie haben bereits damit begonnen, aber sie haben es anders genannt: Es ist eine Frage der Terminologie. "

Wachstumsfaktoren


Was treibt die Nachfrage nach einer neuen Computerarchitektur an? Basierend auf Untersuchungen und Umfragen unter IT-Managern bei Seagate wurden vier SchlĂŒsselfaktoren identifiziert, die die Nachfrage nach Peripherie-Computing bestimmen. Dies ist die Netzwerklatenz (Latenz); unzureichende Bandbreite der KommunikationskanĂ€le fĂŒr die Lieferung großer Datenmengen an das Rechenzentrum; Effizienz und Kosten der Lösung; Datenhoheit und Compliance.

1. Latenz


Der wichtigste Faktor ist die Latenz. Aufgrund der physischen EinschrĂ€nkungen der IT- und Telekommunikationsinfrastruktur dauert es zu lange, um die Daten von ihrem Erstellungsort an den zentralen Standort zu verschieben. Die Latenz wird somit zu einem SchlĂŒsselfaktor: Das Senden von Daten zum und vom zentralen Standort kann sowohl 100 als auch 200 Millisekunden dauern.

2. Bandbreite


Faktor Nummer zwei ist das Bandbreitenproblem. Das gesamte Datenvolumen betrĂ€gt nicht mehr Exabyte, sondern Zettabyte. Und sie wachsen weiter, schon allein aufgrund des Auftretens neuer Sensoren - nicht nur Temperatur-, Wetter-, Vibrations- oder andere Sensoren, die relativ wenig Daten erfassen, sondern auch Kameras, RadargerĂ€te, Lidare und andere GerĂ€te, die viele Informationen generieren. In Zukunft wird es noch mehr solcher Sensoren geben. Die 5G-Infrastruktur kann Millionen von GerĂ€ten pro Quadratkilometer unterstĂŒtzen. Wo finde ich jedoch die Bandbreite, um alle Daten an ein zentrales Cloud-Rechenzentrum zu senden?

3. Effizienz


Drittens Effizienz. Selbst wenn Sie alle Daten an ein zentrales Rechenzentrum senden können, sind die Kosten und die KomplexitĂ€t der Architektur fĂŒr die Verarbeitung einer so großen Informationsmenge so hoch, dass das System schlecht verwaltet wird. Mit einem System, das Daten an der Peripherie, nĂ€her an der Quelle, intensiv verarbeitet, sind die Dinge viel besser.

4. Regulatorische Anforderungen und Unternehmensstandards


Der vierte Faktor ist schließlich die Anforderung, dass die Daten gemĂ€ĂŸ den von den Kunden akzeptierten Normen und Standards verarbeitet werden mĂŒssen. Wenn Sie sich mit Informationssicherheit befassen, können Sie hĂ€ufig keine Daten aus einer bestimmten Region oder einem bestimmten Land im Ausland zur zentralen Verarbeitung senden. Dies gilt beispielsweise fĂŒr personenbezogene Daten.

"Peripheral Computing erfordert spezielle AnsĂ€tze zur Regulierung der Datenspeicherung und zur GewĂ€hrleistung der Sicherheit, einschließlich der Sicherheit des physischen Zugriffs auf Daten", betont Alexander Malinin. "Aber wir werden in den nĂ€chsten zwei bis drei Jahren definitiv eine Zunahme des Peripherie-Computing sehen, da die Anzahl der Anfragen von Unternehmen nach kleinen Rechenzentren wĂ€chst, die sowohl einzelne Branchen als auch große nationale Unternehmen bedienen wĂŒrden." Das heißt, die Anzahl der Anfragen zur Organisation der lokalen Datenspeicherung wĂ€chst. “

Neue Architektur


Was bedeutet das fĂŒr IT-Architekten, was sollten sie anders machen? ZunĂ€chst unterscheidet sich der Entwurf der traditionellen Infrastruktur eines Rechenzentrums oder Cloud-Rechenzentrums stark von der Entwicklung der Peripheriearchitektur. Zu den traditionellen Rechenzentren gehören KĂŒhl- und Klimaanlagen, doppelt redundante unterbrechungsfreie Stromversorgungen und physische Sicherheitssysteme. Sie werden von einem ganzen Team von Spezialisten bedient.

Das periphere Rechenzentrum (oder vielmehr der Knoten) der Datenverarbeitung kann sich auf einem Telekommunikationsturm oder in einem kleinen Raum befinden. Es ist hĂ€ufig der Ă€ußeren Umgebung ausgesetzt, daher ist seine Klimatisierung eine schwierige Aufgabe.

In Bezug auf die physische Sicherheit muss die Architektur einen speziellen Datenschutz fĂŒr Naturkatastrophen oder böswillige Handlungen enthalten. DarĂŒber hinaus mĂŒssen Peripheriesysteme aufgrund des Personalmangels, der schnell alles reparieren kann, besonders zuverlĂ€ssig sein. Wenn etwas passiert, sollte sich das periphere Rechenzentrum selbst wiederherstellen und weiterarbeiten.

Mit anderen Worten, wenn wir Daten an der Peripherie verarbeiten möchten, mĂŒssen wir die FunktionalitĂ€t des Rechenzentrums perfektionieren: KĂŒhlung, Sicherheit usw. Systemarchitekten arbeiten bereits daran, Lösungen zu finden. Ziel ist es, periphere Rechenzentren zu vereinfachen und eine ausreichende Telemetrie bereitzustellen.

Außerdem bleiben einige der Daten, die an der Peripherie verarbeitet werden, nicht dort. Sie werden zur weiteren Analyse oder lĂ€ngeren Lagerung ins Zentrum gebracht. Ein IT-Architekt muss diesen Prozess durchdenken, indem er eine Datenverwaltungsstrategie definiert.

Unternehmen mĂŒssen sich auf ihre Cloud-Computing-Architektur verlassen, lernen, mehr Daten am Rande zu verarbeiten und vor allem sicher zu speichern.
Der Peripheriedatenbericht von Seagate und Vapor IO besagt, dass jedes Unternehmen einen Wert hat, den es nicht einmal vermutet. Dies sind ihre eigenen Daten. Die Art und Weise, wie wir Daten erstellen und mit der Peripherie des Netzwerks arbeiten, gibt ihm eine besondere Bedeutung. Um weiter zu wachsen, mĂŒssen Unternehmen dies nutzen.

„Die Probleme bei der Implementierung von Peripherie-Computern hĂ€ngen jetzt hauptsĂ€chlich mit der Telekommunikation und der Geschwindigkeit des Datenzugriffs zusammen. Je schneller die EinfĂŒhrung von Telekommunikationstechnologien der nĂ€chsten Generation in Russland beginnt, desto schneller wird sich das Peripherie-Computing entwickeln “, sagt Alexander Malinin. - Gleichzeitig wird sich das Peripherie-Computing parallel zu bestehenden Rechenzentren entwickeln und diese ergĂ€nzen. Eine radikale Umstrukturierung ist nicht erforderlich. “

Gartner prognostiziert, dass bis 2021 40% der Unternehmen weltweit umfassende Strategien fĂŒr periphere Computer entwickeln werden. Daher haben es die Anbieter jetzt eilig, eine vielversprechende Nische zu besetzen. In den nĂ€chsten fĂŒnf Jahren wird der Markt aktiv gestaltet, neue Plattformen und schlĂŒsselfertige Lösungen erscheinen, die sich auf verschiedene Aufgaben und Branchen konzentrieren. Unternehmen, die sich mit der Entwicklung von Peripherie-Computern befassen, können in neuen GeschĂ€ftsbereichen fĂŒhrend werden.

Source: https://habr.com/ru/post/de470782/


All Articles