Öl- und Gasindustrie als Beispiel für periphere Cloud-Systeme

Letzte Woche veranstaltete mein Team eine aufregende Veranstaltung im Four Seasons Hotel in Houston, Texas. Es war der Fortsetzung der Tendenz gewidmet, engere Beziehungen zwischen den Teilnehmern zu entwickeln. Es war eine Veranstaltung, die Benutzer, Partner und Kunden zusammenbrachte. . Darüber hinaus nahmen viele Vertreter von Hitachi an der Veranstaltung teil. Bei der Organisation dieses Unternehmens haben wir uns zwei Ziele gesetzt:


  1. Förderung des Interesses an laufender Forschung zu aufkommenden Industriefragen;
  2. Überprüfen Sie die Bereiche, in denen wir bereits arbeiten und entwickeln, sowie deren Anpassung basierend auf dem Feedback der Benutzer.

Doug Gibson und Matt Hall ( Agile Geoscience ) begannen mit einer Diskussion über den Stand der Branche und verschiedene Probleme im Zusammenhang mit der Verwaltung und Verarbeitung seismischer Daten. Es war sehr inspirierend und sicherlich aufschlussreich zu hören, wie sich das Investitionsvolumen auf Produktion, Transport und Verarbeitung verteilt. Zuletzt ging der Löwenanteil der Investitionen in die Produktion, die einst der König in Bezug auf die Menge der verbrauchten Mittel war, aber nach und nach werden die Investitionen sowohl in die Verarbeitung als auch in den Transport übertragen. Matt beschrieb seine Faszination für die wörtliche Beobachtung der geologischen Entwicklung der Erde anhand seismischer Daten.




Generell glaube ich, dass unsere Veranstaltung als "erste Veröffentlichung" für die Arbeit angesehen werden kann, die wir vor einigen Jahren begonnen haben. Wir werden Sie weiterhin über verschiedene Erfolge und Erfolge unserer Arbeit in diesem Bereich informieren. Inspiriert von einer Aufführung von Matt Hall veranstalteten wir eine Reihe von Sitzungen, die zu einem sehr wertvollen Erfahrungsaustausch führten.




Peripherie- (Grenz-) oder Cloud-Computing?


In einer der Sitzungen diskutierten Doug und Ravi (Hitachi Research in Santa Clara) darüber, wie einige Analysen für eine schnellere und genauere Entscheidungsfindung auf Peripherie-Computing übertragen werden können. Dafür gibt es viele Gründe, und ich denke, dass die drei wichtigsten davon enge Datenübertragungskanäle, große Datenmengen (sowohl in Bezug auf Ankunftsrate, Volumen und Vielfalt) als auch enge Entscheidungspläne sind. Trotz der Tatsache, dass einige Prozesse (insbesondere geologische) Wochen, Monate oder Jahre dauern können, gibt es in dieser Branche immer noch viele Fälle, in denen Dringlichkeit von besonderer Bedeutung ist. In diesem Fall kann die Unfähigkeit, auf eine zentralisierte Cloud zuzugreifen, katastrophale Folgen haben! Insbesondere Fragen im Zusammenhang mit HSE (Gesundheit, Sicherheit und Umwelt) sowie Fragen im Zusammenhang mit der Öl- und Gasförderung erfordern eine schnelle Analyse und Entscheidungsfindung. Vielleicht ist der beste Weg, dies anhand verschiedener Zahlen als Beispiele zu zeigen - lassen Sie bestimmte Details anonym bleiben, um „die Unschuldigen zu schützen“.


  • Drahtlose Netzwerke der letzten Meile werden an Orten wie dem Perm-Becken aufgerüstet, indem Kanäle vom Satelliten (wo die Geschwindigkeit in kbit / s gemessen wurde) zu einem 10-Mbit / s-Kanal unter Verwendung von 4G / LTE oder einem nicht lizenzierten Frequenzbereich übertragen werden. Selbst diese aktualisierten Netzwerke sind möglicherweise nicht in der Lage, Kollisionen mit Terabyte und Petabyte an der Grenze zu bewältigen.
  • Sensorsysteme von Unternehmen wie FOTECH, die mit vielen anderen neuen und langlebigen Sensorplattformen kombiniert werden, können mehrere Terabyte pro Tag produzieren. Zusätzliche Digitalkameras, die zur Sicherheitsüberwachung und zum Diebstahlschutz installiert sind, erzeugen ebenfalls eine große Datenmenge, sodass an der Grenze ein vollständiger Satz von Big-Data-Kategorien gebildet wird (Volumen, Ankunftsgeschwindigkeit und Vielfalt).
  • Im Fall von seismischen Systemen, die zum Sammeln von Daten verwendet werden, umfassen Projekte konvergierte Systeme, die in ISO-Containern platziert sind, um seismische Daten zu erfassen und neu zu formatieren, die möglicherweise bis zu 10 Petabyte Daten enthalten. Aufgrund der entfernten Standorte, an denen diese Nachrichtensysteme betrieben werden, besteht ein ernsthafter Mangel an Bandbreite, um Daten von der Grenze der letzten Meile über Netzwerke zum Rechenzentrum zu übertragen. Daher senden Serviceunternehmen Daten buchstäblich von der Grenze auf Band-, optischen oder dauerhaften magnetischen Speichergeräten an das Rechenzentrum.
  • Die Betreiber von Industriebrachenfabriken, in denen täglich Tausende von Ereignissen und Dutzende von „roten Alarmen“ stattfinden, möchten optimaler und stabiler arbeiten. Netzwerke mit einer geringen Datenübertragungsrate und dem fast vollständigen Fehlen von Speichereinrichtungen zum Sammeln von Daten für die Analyse in Fabriken legen jedoch nahe, dass etwas grundlegenderes erforderlich ist, bevor eine grundlegende Analyse des aktuellen Betriebs gestartet wird.

Dies lässt mich natürlich denken, dass die Anbieter von öffentlichen Cloud-Systemen zwar versuchen, all diese Daten auf ihre Plattformen zu übertragen, es jedoch eine harte Realität gibt, mit der Sie fertig werden müssen. Vielleicht ist der beste Weg, dieses Problem zu klassifizieren, zu versuchen, den Elefanten durch einen Strohhalm zu schieben! Viele der Vorzüge der Cloud sind jedoch von wesentlicher Bedeutung. Was können wir also tun?


Peripherer Wolkenübergang


Natürlich verfügt der Hitachi-Markt bereits über (branchenspezifische) optimierte Lösungen, die Daten an der Grenze anreichern, analysieren und auf die minimal nutzbare Datenmenge komprimieren sowie Unternehmensberatungssysteme bereitstellen, mit denen sich periphere Computerprozesse verbessern lassen. Meine Schlussfolgerung aus der letzten Woche lautet jedoch, dass die Lösungen für diese komplexen Probleme nicht so sehr das Widget betreffen, das Sie an den Tisch bringen, sondern den Ansatz zur Lösung des Problems. Dies ist wirklich der Geist der Lumada-Plattform der Hitachi Insight Group, da sie Methoden zur Gewinnung von Benutzern und Ökosystemen enthält und bei Bedarf Diskussionswerkzeuge bereitstellt. Ich war sehr glücklich, wieder Probleme zu lösen (anstatt Produkte zu verkaufen), denn Matt Hall sagte: „Ich war froh zu sehen, dass die Mitarbeiter von Hitachi das Ausmaß des Problems richtig verstanden haben“, als wir unseren Gipfel abschlossen.


Kann O & G (Öl- und Gasindustrie) ein lebendiges Beispiel für die Notwendigkeit von Peripherie-Computing sein? Angesichts der auf unserem Gipfel festgestellten Probleme und anderer Brancheninteraktionen scheint die Antwort wahrscheinlich Ja zu sein. Vielleicht ist der Grund dafür so klar, weil Peripherie-Computing, Branchen-Targeting und eine Mischung aus Cloud-basierten Entwurfsmustern beim Stacks-Upgrade offensichtlich sind. Ich glaube, dass in diesem Fall die Frage nach dem Wie Aufmerksamkeit verdient.

Anhand von Matts Zitat aus dem letzten Absatz verstehen wir, wie das Prinzip des Cloud Computing auf das Peripherie-Computing übertragen werden kann. Tatsächlich müssen wir für diese Branche „altmodische“ und manchmal persönliche Kontakte zu Menschen pflegen, die an verschiedenen Teilen des Ökosystems der Öl- und Gasindustrie beteiligt sind, wie Geologen, Bohringenieure, Geophysiker und so weiter. Angesichts dieser Wechselwirkungen, die angegangen werden müssen, werden Umfang und Tiefe offensichtlicher und sogar überzeugender. Wenn wir dann Implementierungspläne erstellen und diese zum Leben erwecken, werden wir uns entscheiden, periphere Cloud-Systeme zu erstellen.

Wenn wir jedoch in der Mitte sitzen, diese Probleme nur lesen und präsentieren, werden wir nicht genug Verständnis und Sympathie haben, um wirklich unser Bestes zu geben. Ja, Öl und Gas werden wieder periphere Cloud-Systeme erzeugen, aber es ist das Verständnis der tatsächlichen Bedürfnisse der Benutzer vor Ort, das uns dabei hilft, festzustellen, welche Probleme von vorrangiger Bedeutung sind.

Source: https://habr.com/ru/post/de446388/


All Articles