Cisco Live 2019 EMEA. Technische Sitzungen: Externe Vereinfachung mit interner Komplikation



Ich bin Artyom Klavdiev, technischer Leiter des Linxdatacenter HyperCloud Hypercloud Cloud-Projekts. Heute werde ich die Geschichte der globalen Konferenz Cisco Live EMEA 2019 fortsetzen. Gehen Sie sofort vom Allgemeinen zum Besonderen über, zu den Ankündigungen, die der Anbieter in relevanten Sitzungen präsentiert hat.

Dies war meine erste Teilnahme an Cisco Live. Die Mission bestand darin, an technischen Programmveranstaltungen teilzunehmen, in die Welt der fortschrittlichen Technologien und Unternehmenslösungen einzutauchen und an der Spitze der Spezialisten des Cisco-Produktökosystems in Russland Fuß zu fassen.
Die Umsetzung dieser Mission war nicht einfach: Das Programm der technischen Sitzungen erwies sich als überfüllt. Alle runden Tische, Panels, Meisterklassen und Diskussionen, die in viele Abschnitte unterteilt sind und parallel beginnen, können nicht einfach physisch besucht werden. Alles wurde besprochen: Rechenzentren, Netzwerk, Informationssicherheit, Softwarelösungen, Hardware - jeder Aspekt der Arbeit von Cisco und seinen Lieferantenpartnern wurde in einem separaten Abschnitt mit einer Vielzahl von Veranstaltungen vorgestellt. Ich musste den Empfehlungen der Organisatoren folgen und mir eine Art persönliches Programm für Veranstaltungen machen, vorgebuchte Plätze in den Hallen.

Ich werde näher auf die Sitzungen eingehen, an denen ich teilgenommen habe.

Beschleunigung von Big Data und AI / ML auf UCS und HX (Beschleunigung von AI und maschinellem Lernen auf UCS- und HyperFlex-Plattformen)




Diese Sitzung war einer Überprüfung der Cisco-Plattformen für die Entwicklung von Lösungen für künstliche Intelligenz und maschinelles Lernen gewidmet. Semi-Marketing-Veranstaltung mit technischen Punkten durchsetzt.

Das Fazit lautet: IT-Ingenieure und Datenexperten verbringen heute viel Zeit und Ressourcen mit dem Entwurf von Architekturen, die ältere Infrastrukturen, mehrere Stapel für maschinelles Lernen und Software für die Verwaltung dieses Komplexes kombinieren.

Cisco dient zur Vereinfachung dieser Aufgabe: Der Anbieter konzentriert sich auf die Änderung traditioneller Muster für die Verwaltung von Rechenzentren und Arbeitsprozessen, indem er den Integrationsgrad aller für AI / MO erforderlichen Komponenten erhöht.

Ein Beispiel für eine Zusammenarbeit zwischen Cisco und Google wurde vorgestellt: Unternehmen kombinieren UCS- und HyperFlex-Plattformen mit branchenführenden AI / MO-Softwareprodukten wie KubeFlow , um eine umfassende lokale Infrastruktur zu erstellen.

Das Unternehmen berichtete, wie KubeFlow, das auf der Basis von UCS / HX in Kombination mit der Cisco Container Platform bereitgestellt wird, es Ihnen ermöglicht, die Lösung in eine von den Mitarbeitern des Unternehmens als "Cisco / Google Open Hybrid Cloud" bezeichnete Lösung umzuwandeln - eine Infrastruktur, in der eine symmetrische Entwicklung und ein symmetrischer Betrieb der Arbeitsumgebung implementiert werden können KI-Aufgaben basieren gleichzeitig auf lokalen Komponenten und in Google Cloud.

Sitzung zum Internet der Dinge (IoT)




Cisco fördert aktiv die Idee der Notwendigkeit, IoT zu entwickeln und basiert auf eigenen Netzwerklösungen. Das Unternehmen sprach über sein Produkt Industrial Router - eine spezielle Reihe kleiner LTE-Switches und -Router mit erhöhter Fehlertoleranz, Feuchtigkeitsbeständigkeit und dem Fehlen beweglicher Teile. Solche Schalter können in alle Objekte der Umgebung eingebaut werden: Transport, Industrieanlagen, Gewerbebauten. Die Grundidee: "Stellen Sie diese Switches auf Ihren Websites bereit und verwalten Sie sie über eine zentralisierte Konsole aus der Cloud." Die Linie wird von Kinetic Software betrieben, um die Remote-Bereitstellung und -Verwaltung zu optimieren. Ziel ist es, die Verwaltbarkeit von IoT-Systemen zu verbessern.

ACI-Multisite-Architektur und -Bereitstellung (ACI oder Application Centric Infrastructure and Network Microsegmentation)




Sitzung zur Berücksichtigung des Infrastrukturkonzepts mit Schwerpunkt auf der Mikrosegmentierung von Netzwerken. Es war die schwierigste und detaillierteste Sitzung, an der ich teilnehmen konnte. Die allgemeine Botschaft von Cisco lautete wie folgt: Frühere traditionelle Elemente von IT-Systemen (Netzwerk, Server, Speicher usw.) wurden separat verbunden und konfiguriert. Die Aufgabe der Ingenieure bestand darin, alles in einer einzigen Arbeitsumgebung zusammenzuführen. UCS änderte die Situation - der Netzwerkteil wurde in einem separaten Bereich zugewiesen, und die Serververwaltung wurde zentral von einem einzigen Panel aus durchgeführt. Es spielt keine Rolle, wie viele Server - 10 oder 10.000 - eine beliebige Anzahl von einem einzigen Verwaltungspunkt aus gesteuert wird. Sowohl die Verwaltung als auch die Datenübertragung erfolgen auf einer Leitung. Mit ACI können Sie sowohl Netzwerke als auch Server in einer Verwaltungskonsole zusammenfassen.

Die Mikrosegmentierung von Netzwerken ist daher die wichtigste Funktion von ACI, die eine granulare Trennung von Anwendungen in einem System mit unterschiedlichen Ebenen des Dialogs zwischen ihnen und der Außenwelt ermöglicht. Beispielsweise können zwei virtuelle Maschinen, auf denen ACI ausgeführt wird, standardmäßig nicht miteinander kommunizieren. Die Interaktion untereinander wird nur durch Öffnen des sogenannten „Vertrags“ geöffnet, mit dem Sie detaillierte Zugriffslisten für eine detaillierte (dh Mikro-) Netzwerksegmentierung erstellen können.

Mit der Mikrosegmentierung können Sie jedes Segment des IT-Systems optimieren, indem Sie alle Komponenten isolieren und in einer beliebigen Konfiguration von physischen und virtuellen Maschinen miteinander verbinden. EPG-Gruppen (Finite Computing Element Group) werden erstellt, auf die Filter- und Routingrichtlinien angewendet werden. Mit Cisco ACI können Sie diese EPGs in vorhandenen Anwendungen in neuen Mikrosegmenten (uSeg) gruppieren und Netzwerkrichtlinien oder VM-Attribute für jedes bestimmte Mikrosegmentelement konfigurieren.

Beispielsweise können Sie einigen EPGs Webserver zuweisen, um dieselben Richtlinien auf sie anzuwenden. Standardmäßig können alle Rechenknoten im EPG miteinander kommunizieren. Wenn ein Web-EPG jedoch Webserver für die Entwicklungs- und Betriebsphase enthält, kann es sinnvoll sein, zu verhindern, dass diese miteinander kommunizieren, um sicherzustellen, dass sie nicht ausfallen. Durch die Mikrosegmentierung mit Cisco ACI können Sie einen neuen EPG erstellen und automatisch Richtlinien dafür festlegen, die auf den VM-Namensattributen basieren, z. B. "Prod-xxxx" oder "Dev-xxx".

Dies war natürlich eine der wichtigsten Sitzungen des technischen Programms.

Effektive Entwicklung eines DC-Netzwerks (Entwicklung eines Netzwerks von Rechenzentren im Kontext von Virtualisierungstechnologien)





Diese Sitzung war logisch mit der Sitzung zur Mikrosegmentierung des Netzwerks verbunden und behandelte auch das Thema Containernetzwerk. Im Allgemeinen ging es um die Migration von virtuellen Routern einer Generation zu Routern einer anderen Generation - mit Architekturdiagrammen, Verbindungsdiagrammen zwischen verschiedenen Hypervisoren usw.

So die ACI-VXLAN-Architektur, Mikrosegmentierung und verteilte Firewall, mit der die Firewall für bedingte 100 virtuelle Maschinen konfiguriert werden kann.
Die ACI-Architektur ermöglicht diese Vorgänge nicht auf der Ebene des virtuellen Betriebssystems, sondern auf der Ebene des virtuellen Netzwerks: Es ist sicherer, für jeden Computer einen bestimmten Regelsatz nicht manuell vom Betriebssystem aus zu konfigurieren, sondern auf der Ebene des virtualisierten Netzwerks sicherer, schneller, weniger arbeitsintensiv usw. Die beste Kontrolle über alles, was passiert, ist in jedem Netzwerksegment. Was gibt's Neues:

  • Mit ACI Anywhere können Sie Richtlinien in öffentlichen Clouds (während AWS in Zukunft - in Azure) sowie in lokalen Elementen oder im Web verteilen, indem Sie einfach die erforderliche Konfiguration von Einstellungen und Richtlinien kopieren.
  • Virtual Pod ist eine virtuelle Instanz von ACI, eine Kopie des physischen Steuermoduls. Für die Verwendung ist ein physisches Original erforderlich (dies ist jedoch nicht korrekt).

Wie dies in der Praxis angewendet werden kann: Erweiterung der Netzwerkkonnektivität in großen Clouds. Multicloud kommt, immer mehr Unternehmen verwenden Hybridkonfigurationen, da in jeder Cloud-Umgebung unterschiedliche Netzwerkeinstellungen erforderlich sind. Jetzt bietet ACI Anywhere die Möglichkeit, Netzwerke mit einem einzigen Ansatz, Protokollen und Richtlinien bereitzustellen.

Entwerfen von Speichernetzwerken für das nächste Jahrzehnt in einem AllFlash DC (SAN)


Eine interessante Sitzung über SAN-Netzwerke mit einer Demonstration einer Reihe von Best Practices für die Konfiguration.
Top-Inhalt: Überwindung des langsamen Abflusses in SAN-Netzwerken. Dies tritt auf, wenn eines oder zwei Datenarrays aktualisiert oder durch eine effizientere Konfiguration ersetzt werden und sich der Rest der Infrastruktur nicht ändert. Dies führt zu einer "Hemmung" aller Anwendungen, die auf dieser Infrastruktur ausgeführt werden. Das FC-Protokoll verfügt nicht über die Fenstergrößenanpassungstechnologie des IP-Protokolls. Daher besteht bei einem Ungleichgewicht in der Menge der gesendeten Informationen und der Bandbreite und den Rechenbereichen des Kanals die Möglichkeit, einen langsamen Abfluss zu erfassen. Empfehlungen zur Überwindung - um das Gleichgewicht zwischen Bandbreite und Geschwindigkeit der Host- und Speicherkante so zu steuern, dass die Geschwindigkeit der Aggregation von Kanälen höher ist als im Rest der Fabrik. Es wurden auch Möglichkeiten zur Identifizierung eines langsamen Abflusses untersucht, z. B. die Verkehrstrennung mithilfe von vSAN.

Viel Aufmerksamkeit wurde der Zonierung gewidmet. Die Hauptempfehlung für die Konfiguration des SAN lautet, das 1-zu-1-Prinzip einzuhalten (1 Initiator ist für 1 Ziel vorgeschrieben). Und wenn die Netzwerkfabrik groß ist, bedeutet dies einen enormen Arbeitsaufwand. Die TCAM-Liste ist jedoch nicht unendlich. Daher wurden in Cisco SAN-Verwaltungslösungen Optionen für Cisco Smart Zoning und Auto Zoning angezeigt.

HyperFlex Deep Dive Session




Finde mich auf dem Foto :-)

Diese Sitzung war der HyperFlex-Plattform als Ganzes gewidmet - ihrer Architektur, Datenschutzmethoden, verschiedenen Anwendungsszenarien, einschließlich für Aufgaben der neuen Generation: zum Beispiel für die Datenanalyse.

Die Hauptbotschaft: Mit den Funktionen der Plattform können Sie sie heute für alle Aufgaben konfigurieren, ihre Ressourcen skalieren und auf die Aufgaben verteilen, mit denen das Unternehmen konfrontiert ist. Plattformexperten stellten die Hauptvorteile der hyperkonvergenten Architektur der Plattform vor. Die wichtigste davon ist die Fähigkeit, fortschrittliche technologische Lösungen mit minimalen Kosten für die Infrastrukturkonfiguration, reduzierten IT-Gesamtbetriebskosten und höherer Produktivität schnell bereitzustellen. Cisco bietet all diese Vorteile mit fortschrittlicher Netzwerk-, Verwaltungs- und Steuerungssoftware.

Ein separater Teil der Sitzung war den logischen Verfügbarkeitszonen gewidmet - einer Technologie, mit der die Fehlertoleranz von Serverclustern erhöht werden kann. Wenn beispielsweise 16 Knoten in einem einzelnen Cluster mit einem Replikationsfaktor von 2 oder 3 zusammengestellt sind, erstellt die Technologie Kopien der Server und blockiert so die Folgen möglicher Serverausfälle aufgrund von Speicherplatzspenden.

Zusammenfassung und Schlussfolgerungen




Cisco fördert aktiv die Idee, dass heute absolut alle Optionen zum Konfigurieren und Überwachen der IT-Infrastruktur aus den Clouds verfügbar sind. Diese Lösungen müssen so schnell wie möglich und in Scharen umgestellt werden. Nur weil sie bequemer sind, müssen Sie nicht mehr viele Infrastrukturprobleme lösen und Ihr Unternehmen flexibler und moderner machen.

Mit steigender Geräteproduktivität steigen auch alle damit verbundenen Risiken. 100-Gigabit-Schnittstellen sind bereits real, und Sie müssen lernen, wie Sie Technologien in Bezug auf die Anforderungen des Unternehmens und Ihre Kompetenzen verwalten. Die Bereitstellung der IT-Infrastruktur ist einfach geworden, aber Management und Entwicklung sind viel komplexer geworden.

Gleichzeitig scheint es in Bezug auf grundlegende Technologien und Protokolle (alles ist über Ethernet, TCP / IP usw.) nichts radikal Neues zu geben, aber die Mehrfachkapselung (VLAN, VXLAN usw.) macht das Gesamtsystem äußerst komplex. Hinter scheinbar einfachen Schnittstellen verstecken sich heute sehr komplexe Architekturen und Probleme, und der Preis für einen Fehler steigt. Einfacher zu handhaben - einfacher, einen tödlichen Fehler zu machen. Sie sollten immer daran denken, dass die von Ihnen geänderte Richtlinie sofort angewendet wird und für alle Geräte Ihrer IT-Infrastruktur gilt. Die Einführung der neuesten technologischen Ansätze und Konzepte wie ACI erfordert in Zukunft eine radikale Verbesserung der Personalschulung und der Ausarbeitung von Prozessen im Unternehmen: Der Einfachheit halber müssen Sie einen hohen Preis zahlen. Mit dem Fortschritt erscheinen Risiken auf einem völlig neuen Niveau und Profil.

Nachwort




Während ich einen Artikel über Cisco Live Tech-Sitzungen vorbereitete, gelang es meinen Kollegen aus dem Cloud-Team, Cisco Connect in Moskau zu besuchen. Und hier ist, was sie dort interessant gehört haben.

Podiumsdiskussion zu Herausforderungen der Digitalisierung


Rede von IT-Managern der Bank und des Bergbauunternehmens. Zusammenfassung: Wenn frühere IT-Spezialisten zur Koordination von Einkäufen an die Führung kamen und diese mit einem Knarren erreichten, ist es jetzt umgekehrt - die Führung läuft für die IT als Teil des Digitalisierungsprozesses des Unternehmens. Und hier fallen zwei Strategien auf: Die erste kann als „innovativ“ bezeichnet werden - um neue Produkte zu finden, zu filtern, zu testen und praktische Anwendung zu finden, die zweite, die Strategie der frühen Follower, beinhaltet die Fähigkeit, Fälle von russischen und ausländischen Kollegen, Partnern, Anbietern zu finden und in ihnen zu verwenden Ihre Firma.



Stand „Rechenzentren mit dem neuen Cisco AI Platform Server (UCS C480 ML M5)“


Der Server enthält 8 NVIDIA V100-Chips + 2 Intel-CPUs mit bis zu 28 Kernen + bis zu 3 TB RAM + bis zu 24 HDD / SSDs in einem 4-Einheiten-Gehäuse mit einem leistungsstarken Kühlsystem. TensorFlow wurde speziell für die Ausführung von Anwendungen entwickelt, die auf künstlicher Intelligenz und maschinellem Lernen basieren, und bietet eine Leistung von 8 x 125 teraFLOPs. Das Serveranalysesystem der Routen der Konferenzbesucher wurde auf Basis des Servers durch Verarbeitung von Videostreams implementiert.

Neuer Nexus 9316D Switch


In einem Fall mit 1 Einheit sind 16 Ports mit 400 Gbit platziert, dies sind insgesamt 6,4 Tbit.
Zum Vergleich habe ich mir den Spitzenverkehr des größten Verkehrsaustauschpunkts in Russland angesehen. MSK-IX - 3,3 Tbit, d. H. ein bedeutender Teil der Runen in der 1. Einheit.
Kann zu L2, L3, ACI.

Und schließlich: Ein Bild, das mit unserem Vortrag über Cisco Connect auffällt.



Erster Artikel: Cisco Live EMEA 2019: Wechsel eines alten IT-Fahrrads zu einem BMW in den Wolken

Source: https://habr.com/ru/post/de447862/


All Articles