Je suis Artyom Klavdiev, responsable technique du projet Linxdatacenter HyperCloud Hypercloud Cloud. Aujourd'hui, je vais continuer l'histoire de la conférence mondiale Cisco Live EMEA 2019. Passer immédiatement du général au particulier, aux annonces présentées par le fournisseur lors des sessions pertinentes.C'était ma première participation à Cisco Live, la mission était d'assister à des événements de programme technique, de plonger dans le monde des technologies avancées et des solutions d'entreprise et de prendre pied à la pointe des spécialistes impliqués dans l'écosystème des produits Cisco en Russie.
La mise en pratique de cette mission n'a pas été facile: le programme des séances techniques s'est avéré super saturé. Toutes les tables rondes, panels, master classes et discussions, divisés en plusieurs sections et commençant en parallèle, ne peuvent pas être visités simplement physiquement. Tout a été discuté: centres de données, réseau, sécurité de l'information, solutions logicielles, matériel - tout aspect du travail de Cisco et de ses partenaires fournisseurs a été présenté dans une section distincte avec un grand nombre d'événements. J'ai dû suivre les recommandations des organisateurs et me faire une sorte de programme personnel pour les événements, des places pré-réservées dans les salles.
Je m'attarderai plus en détail sur les sessions auxquelles j'ai réussi à assister.
Accélérer le Big Data et l'IA / ML sur UCS et HX (Accélérer l'IA et l'apprentissage automatique sur les plates-formes UCS et HyperFlex)

Cette session a été consacrée à une revue des plates-formes Cisco pour le développement de solutions sur l'intelligence artificielle et l'apprentissage automatique. Événement semi-marketing entrecoupé de points techniques.
Le résultat est le suivant: les ingénieurs informatiques et les experts en données consacrent aujourd'hui beaucoup de temps et de ressources à la conception d'architectures combinant une infrastructure héritée, plusieurs piles pour fournir un apprentissage automatique et des logiciels pour gérer ce complexe.
Cisco simplifie cette tâche: le fournisseur se concentre sur la modification des modèles traditionnels de gestion des centres de données et des processus de travail en augmentant le niveau d'intégration de tous les composants nécessaires à l'IA / MO.
Un exemple de collaboration entre Cisco et
Google a été présenté: les entreprises combinent les plates-formes UCS et HyperFlex avec des produits logiciels AI / MO de
pointe comme
KubeFlow pour créer une infrastructure complète sur site.
La société a expliqué comment KubeFlow, déployé sur la base de UCS / HX en combinaison avec Cisco Container Platform, vous permet de transformer la solution en quelque chose que les employés de la société ont appelé «Cisco / Google open hybride cloud» - une infrastructure dans laquelle il est possible de mettre en œuvre un développement et un fonctionnement symétriques de l'environnement de travail sous Les tâches d'IA sont basées simultanément sur des composants sur site et dans Google Cloud.
Session Internet des objets (IoT)

Cisco promeut activement l'idée de la nécessité de développer l'IoT et sur la base de ses propres solutions réseau. La société a parlé de son produit Industrial Router - une gamme spéciale de commutateurs et routeurs LTE de petite taille avec une tolérance aux pannes, une résistance à l'humidité et l'absence de pièces mobiles. De tels commutateurs peuvent être intégrés à tous les objets du monde environnant: transports, installations industrielles, bâtiments commerciaux. L'idée de base: "Déployez ces commutateurs sur vos sites et gérez-les depuis le cloud à l'aide d'une console centralisée." La gamme est optimisée par Kinetic Software pour optimiser le déploiement et la gestion à distance. L'objectif est d'augmenter la gérabilité des systèmes IoT.
Architecture et déploiement multisite ACI (ACI ou infrastructure centrée sur les applications et microsegmentation de réseau)

Session consacrée à la réflexion sur le concept d'infrastructure centrée sur la micro-segmentation des réseaux. Ce fut la session la plus difficile et la plus détaillée à laquelle j'ai réussi à assister. Le message général de Cisco était le suivant: les éléments traditionnels antérieurs des systèmes informatiques (réseau, serveurs, stockage, etc.) étaient connectés et configurés séparément. La tâche des ingénieurs était de tout rassembler dans un seul environnement de travail contrôlé. UCS a changé la donne: la partie réseau a été allouée dans une zone distincte et la gestion des serveurs a commencé à être centralisée à partir d'un seul panneau. Peu importe le nombre de serveurs - 10 ou 10 000, n'importe quel nombre est contrôlé à partir d'un seul point de gestion, la gestion et le transfert de données s'effectuant sur un seul câble. ACI vous permet de regrouper les réseaux et les serveurs dans une seule console de gestion.
Ainsi, la micro-segmentation des réseaux est la fonction la plus importante d'ACI, qui permet une séparation granulaire des applications dans un système avec différents niveaux de dialogue entre eux et avec le monde extérieur. Par exemple, deux machines virtuelles exécutant ACI ne peuvent pas communiquer entre elles par défaut. L'interaction les uns avec les autres ne s'ouvre qu'en ouvrant le soi-disant «contrat», qui vous permet de détailler les listes d'accès pour une segmentation détaillée (en d'autres termes, micro) du réseau.
La microsegmentation vous permet de régler avec précision n'importe quel segment du système informatique en isolant tous les composants et en les reliant dans n'importe quelle configuration de machines physiques et virtuelles. Des groupes EPG (Finite Computing Element Group) sont créés auxquels les politiques de filtrage et de routage sont appliquées. Cisco ACI vous permet de regrouper ces EPG dans des applications existantes dans de nouveaux microsecteurs (uSeg) et de configurer des stratégies réseau ou des attributs de machine virtuelle pour chaque élément de microsegment spécifique.
Par exemple, vous pouvez affecter des serveurs Web à certains EPG afin de leur appliquer les mêmes politiques. Par défaut, tous les nœuds de calcul dans l'EPG sont libres de communiquer entre eux. Cependant, si un EPG Web comprend des serveurs Web pour les phases de développement et d'exploitation, il peut être judicieux de les empêcher de communiquer entre eux pour garantir qu'ils n'échouent pas. La microsegmentation avec Cisco ACI vous permet de créer un nouvel EPG et de lui prescrire automatiquement des politiques basées sur les attributs de nom de machine virtuelle, tels que "Prod-xxxx" ou "Dev-xxx".
Bien sûr, ce fut l'une des sessions clés du programme technique.
Evolution effective d'un DC Networking (Evolution d'un réseau de data centers dans le cadre des technologies de virtualisation)

Cette session était logiquement liée à la session sur la micro-segmentation du réseau et couvrait également le thème de la mise en réseau de conteneurs. En général, il s'agissait de migrer des routeurs virtuels d'une génération vers des routeurs d'une autre - avec des diagrammes d'architecture, des diagrammes de connexion entre différents hyperviseurs, etc.
Ainsi, l'architecture ACI-VXLAN, la microsegmentation et le pare-feu distribué, qui permettent de configurer le pare-feu pour 100 machines virtuelles conditionnelles.
L'architecture ACI permet ces opérations non pas au niveau du système d'exploitation virtuel, mais au niveau du réseau virtuel: il est plus sûr de configurer pour chaque machine un ensemble spécifique de règles non pas à partir du système d'exploitation, manuellement, mais au niveau du réseau virtualisé, plus sûr, plus rapide, moins exigeant en main-d'œuvre, etc. Le meilleur contrôle de tout ce qui se passe est sur chaque segment de réseau. Quoi de neuf:
- ACI Anywhere vous permet de distribuer des stratégies sur des clouds publics (tout en AWS, à l'avenir - dans Azure), ainsi que des éléments sur site ou sur le Web, simplement en copiant la configuration nécessaire des paramètres et des stratégies.
- Virtual Pod est une instance virtuelle d'ACI, une copie du module de contrôle physique, son utilisation nécessite un original physique (mais ce n'est pas exact).
Comment cela peut être appliqué dans la pratique: étendre la connectivité réseau dans les grands nuages. Multicloud arrive, de plus en plus d'entreprises utilisent des configurations hybrides, confrontées à la nécessité de paramètres réseau disparates dans chaque environnement cloud. ACI Anywhere offre désormais la possibilité de déployer des réseaux avec une approche, des protocoles et des politiques uniques.
Conception de réseaux de stockage pour la prochaine décennie dans un AllFlash DC (SAN)
Une session intéressante sur les réseaux SAN avec une démonstration d'un ensemble de meilleures pratiques de configuration.
Contenu principal: surmonter la fuite lente sur les réseaux SAN. Il se produit lorsque l'une ou plusieurs des baies de données sont mises à niveau ou remplacées par une configuration plus efficace et que le reste de l'infrastructure ne change pas. Cela conduit à une "inhibition" de toutes les applications s'exécutant sur cette infrastructure. Le protocole FC n'a pas la technologie de correspondance de taille de fenêtre dont dispose le protocole IP. Par conséquent, avec un déséquilibre dans la quantité d'informations envoyées et la bande passante et les zones de calcul du canal, il y a une chance de rattraper le drain lent. Recommandations à surmonter - pour contrôler l'équilibre de la bande passante et de la vitesse du bord hôte et du bord de stockage afin que la vitesse d'agrégation des canaux soit supérieure à celle du reste de l'usine. Il a également examiné les moyens d'identifier le drainage lent, comme la ségrégation du trafic à l'aide de vSAN.
Une grande attention a été accordée au zonage. La principale recommandation pour configurer le SAN est de respecter le principe «1 à 1» (1 initiateur est prescrit pour 1 cible). Et si l'usine réseau est grande, cela génère une énorme quantité de travail. Cependant, la liste TCAM n'est pas infinie, par conséquent, dans les solutions de gestion Cisco SAN des options de zonage intelligent et de zonage automatique Cisco sont apparues.
Session de plongée profonde HyperFlex
Retrouvez-moi sur la photo :-)Cette session a été consacrée à la plate-forme HyperFlex dans son ensemble - son architecture, ses méthodes de protection des données, divers scénarios d'application, y compris pour les tâches de nouvelle génération: par exemple, pour l'analyse de données.
Le message principal - les capacités de la plate-forme vous permettent aujourd'hui de la configurer pour toutes les tâches, de faire évoluer et de répartir ses ressources entre les tâches auxquelles l'entreprise est confrontée. Les experts de la plate-forme ont présenté les principaux avantages de l'architecture hyperconvergée de la plate-forme, dont le plus important est la capacité de déployer rapidement toutes les solutions technologiques avancées avec des coûts de configuration d'infrastructure minimaux, un coût total de possession informatique réduit et une productivité accrue. Cisco offre tous ces avantages avec un logiciel de mise en réseau et de gestion et de contrôle avancé.
Une partie distincte de la session a été consacrée aux zones de disponibilité logique - une technologie qui permet d'augmenter la tolérance aux pannes des clusters de serveurs. Par exemple, s'il y a 16 nœuds assemblés dans un seul cluster avec un facteur de réplication de 2 ou 3, la technologie créera des copies des serveurs, bloquant les conséquences d'éventuelles pannes de serveur dues au don d'espace.
Résumé et conclusions

Cisco promeut activement l'idée qu'aujourd'hui, toutes les options de configuration et de surveillance de l'infrastructure informatique sont disponibles à partir des nuages, et ces solutions doivent être commutées dès que possible et en masse. Tout simplement parce qu'ils sont plus pratiques, éliminez le besoin de résoudre une montagne de problèmes d'infrastructure, rendez votre entreprise plus flexible et moderne.
À mesure que la productivité des appareils augmente, tous les risques qui leur sont associés augmentent également. Les interfaces 100 gigabits sont déjà réelles, et vous devez apprendre à gérer les technologies en fonction des besoins de l'entreprise et de vos compétences. Le déploiement de l'infrastructure informatique est devenu simple, mais la gestion et le développement sont devenus beaucoup plus complexes.
En même temps, il ne semble y avoir rien de radicalement nouveau en termes de technologies et protocoles de base (tout est sur Ethernet, TCP / IP, etc.), mais l'encapsulation multiple (VLAN, VXLAN, etc.) rend le système global extrêmement complexe. Derrière des interfaces apparemment simples, des architectures et des problèmes très complexes se cachent aujourd'hui, et le prix d'une erreur augmente. Plus facile à gérer - plus facile à faire une erreur fatale. Vous devez toujours vous rappeler que la politique que vous avez modifiée est appliquée instantanément et s'applique à tous les appareils de votre infrastructure informatique. À l'avenir, l'introduction des dernières approches et concepts technologiques tels que ACI nécessitera une mise à niveau radicale de la formation du personnel et l'élaboration de processus au sein de l'entreprise: pour plus de simplicité, vous devrez payer un prix élevé. Avec les progrès, les risques apparaissent d'un tout nouveau niveau et profil.
Épilogue

Pendant que je préparais un article sur les sessions technologiques Cisco Live, mes collègues de l'équipe cloud ont réussi à visiter Cisco Connect à Moscou. Et voici ce qu'ils ont entendu intéressant là -bas.
Table ronde sur les défis de la numérisation
Discours des responsables informatiques de la banque et de la société minière. Résumé: si des spécialistes informatiques précédents sont venus à la direction pour la coordination des achats et y sont parvenus en un clin d'œil, maintenant tout est l'inverse - la gestion fonctionne pour les TI dans le cadre du processus de numérisation de l'entreprise. Et ici, deux stratégies sont perceptibles: la première peut être qualifiée d '«innovante» - pour trouver de nouveaux produits, filtrer, tester et trouver une application pratique, la seconde, «la stratégie des premiers adeptes», implique la possibilité de trouver des cas de collègues, partenaires, fournisseurs russes et étrangers et de les utiliser dans votre entreprise.

Stand «Data Centers avec le nouveau serveur Cisco AI Platform (UCS C480 ML M5)»
Le serveur contient 8 puces NVIDIA V100 + 2 processeurs Intel jusqu'à 28 cœurs + jusqu'à 3 To de RAM + jusqu'à 24 HDD / SSD le tout dans un boîtier de 4 unités avec un puissant système de refroidissement. Conçu pour exécuter des applications basées sur l'intelligence artificielle et l'apprentissage automatique, en particulier, TensorFlow produit des performances 8x125 teraFLOP. Le système d'analyse du serveur des itinéraires des visiteurs de la conférence a été mis en œuvre sur la base du serveur en traitant les flux vidéo.
Nouveau commutateur Nexus 9316D
Dans un boîtier 1 unité, 16 ports de 400 Gbit sont placés, ce qui représente un total de 6,4 Tbit.
À titre de comparaison, j'ai examiné le trafic de pointe du plus grand point d'échange de trafic en Russie MSK-IX - 3,3 Tbits, c'est-à -dire une partie importante du Runet dans la 1ère unité.
Capable de L2, L3, ACI.
Et enfin: une image pour attirer l'attention avec notre exposé sur Cisco Connect.
Premier article: Cisco Live EMEA 2019: changer un vieux vélo informatique en BMW dans les nuages