Cisco Live 2019 EMEA. Sesiones técnicas: simplificación externa con complicación interna



Soy Artyom Klavdiev, líder técnico del proyecto Linxdatacenter HyperCloud Hypercloud Cloud. Hoy continuaré con la historia de la conferencia global Cisco Live EMEA 2019. Pase inmediatamente de lo general a lo particular, a los anuncios presentados por el proveedor en las sesiones relevantes.

Esta fue mi primera participación en Cisco Live, la misión era asistir a eventos de programas técnicos, sumergirnos en el mundo de las tecnologías avanzadas y soluciones de la compañía y ganar un punto de apoyo en la vanguardia de los especialistas involucrados en el ecosistema de productos Cisco en Rusia.
Poner en práctica esta misión no fue fácil: el programa de sesiones técnicas resultó estar muy saturado. Todas las mesas redondas, paneles, clases magistrales y debates, divididos en muchas secciones y comenzando en paralelo, no se pueden visitar simplemente físicamente. Todo se discutió: centros de datos, redes, seguridad de la información, soluciones de software, hardware: cualquier aspecto del trabajo de Cisco y sus socios proveedores se presentó en una sección separada con una gran cantidad de eventos. Tuve que seguir las recomendaciones de los organizadores y hacerme una especie de programa personal para eventos, lugares reservados previamente en los pasillos.

Hablaré con más detalle sobre las sesiones a las que logré asistir.

Aceleración de Big Data y AI / ML en UCS y HX (Aceleración de AI y aprendizaje automático en plataformas UCS e HyperFlex)




Esta sesión se dedicó a una revisión de las plataformas de Cisco para el desarrollo de soluciones en inteligencia artificial y aprendizaje automático. Evento de semi-marketing intercalado con puntos técnicos.

El resultado final es: los ingenieros de TI y los expertos en datos hoy dedican una cantidad significativa de tiempo y recursos al diseño de arquitecturas que combinan infraestructura heredada, varias pilas para proporcionar aprendizaje automático y software para administrar este complejo.

Cisco sirve para simplificar esta tarea: el proveedor se enfoca en cambiar los patrones tradicionales para administrar los centros de datos y los procesos de trabajo al aumentar el nivel de integración de todos los componentes necesarios para AI / MO.

Se presentó un ejemplo de colaboración entre Cisco y Google : las compañías combinan plataformas UCS e HyperFlex con productos de software líderes en la industria para AI / MO como KubeFlow para crear una infraestructura integral local.

La compañía contó cómo KubeFlow, implementado sobre la base de UCS / HX en combinación con Cisco Container Platform, le permite transformar la solución en algo que los empleados de la compañía llamaron "nube híbrida abierta Cisco / Google", una infraestructura en la que es posible implementar un desarrollo y operación simétrica del entorno de trabajo bajo Las tareas de IA se basan simultáneamente en componentes locales y en Google Cloud.

Sesión de Internet de las cosas (IoT)




Cisco promueve activamente la idea de la necesidad de desarrollar IoT y se basa en sus propias soluciones de red. La compañía habló sobre su producto Enrutador industrial: una línea especial de conmutadores y enrutadores LTE de pequeño tamaño con mayor tolerancia a fallas, resistencia a la humedad y la ausencia de piezas móviles. Dichos interruptores pueden integrarse en cualquier objeto del mundo circundante: transporte, instalaciones industriales, edificios comerciales. La idea básica: "Implemente estos conmutadores en sus sitios y adminístrelos desde la nube utilizando una consola centralizada". La línea está impulsada por Kinetic Software para optimizar la implementación y administración remotas. El objetivo es aumentar la capacidad de administración de los sistemas IoT.

Arquitectura e implementación de múltiples sitios ACI (infraestructura centrada en aplicaciones o ACI y microsegmentación de red)




Sesión dedicada a la consideración del concepto de infraestructura centrado en la microsegmentación de redes. Fue la sesión más difícil y detallada a la que pude asistir. El mensaje general de Cisco fue el siguiente: los elementos tradicionales anteriores de los sistemas de TI (red, servidores, almacenamiento, etc.) se conectaban y configuraban por separado. La tarea de los ingenieros era reunir todo en un solo entorno de trabajo controlado. UCS cambió la situación: la parte de la red se asignó en un área separada y la administración del servidor comenzó a llevarse a cabo de manera centralizada desde un solo panel. No importa cuántos servidores: 10 o 10,000, cualquier número se controla desde un único punto de administración, tanto la administración como la transferencia de datos se realizan en un solo cable. ACI le permite incorporar redes y servidores en una consola de administración.

Por lo tanto, la microsegmentación de redes es la función más importante de ACI, que permite la separación granular de aplicaciones en un sistema con diferentes niveles de diálogo entre ellos y con el mundo exterior. Por ejemplo, dos máquinas virtuales que ejecutan ACI no pueden comunicarse entre sí de manera predeterminada. La interacción entre ellos solo se abre abriendo el llamado "contrato", que le permite detallar listas de acceso para una segmentación de red detallada (en otras palabras, micro).

La microsegmentación le permite lograr un ajuste fino de cualquier segmento del sistema de TI al aislar los componentes y vincularlos en cualquier configuración de máquinas físicas y virtuales. Los grupos de grupo de elementos de computación finita (EPG) se crean a los que se aplican las políticas de filtrado y enrutamiento. Cisco ACI le permite agrupar estas EPG en aplicaciones existentes en nuevos microsegmentos (uSeg) y configurar políticas de red o atributos de VM para cada elemento de microsegmento específico.

Por ejemplo, puede asignar servidores web a algunas EPG para aplicarles las mismas políticas. Por defecto, todos los nodos de cómputo en la EPG son libres de comunicarse entre sí. Sin embargo, si una EPG web incluye servidores web para las fases de desarrollo y operativas, puede tener sentido evitar que se comuniquen entre sí para garantizar que no fallen. La microsegmentación con Cisco ACI le permite crear una nueva EPG y prescribir automáticamente políticas basadas en los atributos de nombre de VM, como "Prod-xxxx" o "Dev-xxx".

Por supuesto, esta fue una de las sesiones clave del programa técnico.

Evolución efectiva de una red DC (Evolución de una red de centros de datos en el contexto de tecnologías de virtualización)





Esta sesión se relacionó lógicamente con la sesión sobre microsegmentación de la red y también cubrió el tema de la red de contenedores. En general, se trataba de la migración de enrutadores virtuales de una generación a enrutadores de otra, con diagramas de arquitectura, diagramas de conexión entre diferentes hipervisores, etc.

Por lo tanto, la arquitectura ACI - VXLAN, microsegmentación y firewall distribuido, que permiten configurar el firewall para 100 máquinas virtuales condicionales.
La arquitectura ACI permite estas operaciones no a nivel de SO virtual, sino a nivel de red virtual: es más seguro configurar para cada máquina un conjunto específico de reglas no desde el SO, manualmente, sino a nivel de red virtualizada, más seguro, más rápido, menos trabajo, etc. El mejor control de todo lo que sucede está en cada segmento de red. Que hay de nuevo:

  • ACI Anywhere le permite distribuir políticas a nubes públicas (mientras que AWS, en el futuro, en Azure), así como a elementos locales o en la web, simplemente copiando la configuración necesaria de configuraciones y políticas.
  • Virtual Pod es una instancia virtual de ACI, una copia del módulo de control físico, su uso requiere un original físico (pero esto no es exacto).

Cómo se puede aplicar esto en la práctica: expandir la conectividad de red en grandes nubes. Multicloud llega, cada vez más empresas están utilizando configuraciones híbridas, ante la necesidad de configuraciones de red dispares en cada entorno de nube. Ahora ACI Anywhere brinda la oportunidad de implementar redes con un único enfoque, protocolos y políticas.

Diseño de redes de almacenamiento para la próxima década en un AllFlash DC (SAN)


Una sesión interesante sobre redes SAN con una demostración de un conjunto de mejores prácticas para la configuración.
Contenido principal: Superar el drenaje lento en las redes SAN. Ocurre cuando cualquiera de dos o más matrices de datos se actualiza o reemplaza con una configuración más eficiente, y el resto de la infraestructura no cambia. Esto lleva a la "inhibición" de todas las aplicaciones que se ejecutan en esta infraestructura. El protocolo FC no tiene la tecnología de coincidencia de tamaño de ventana que tiene el protocolo IP. Por lo tanto, con un desequilibrio en la cantidad de información enviada y el ancho de banda y las áreas informáticas del canal, existe la posibilidad de atrapar el drenaje lento. Recomendaciones para superar: controlar el equilibrio del ancho de banda y la velocidad del borde del host y el borde de almacenamiento para que la velocidad de agregación de canales sea mayor que en el resto de la fábrica. También buscó formas de identificar el drenaje lento, como la segregación de tráfico con vSAN.

Se prestó mucha atención a la zonificación. La recomendación principal para configurar la SAN es cumplir con el principio "1 a 1" (se prescribe 1 iniciador para 1 objetivo). Y si la fábrica de redes es grande, esto genera una gran cantidad de trabajo. Sin embargo, la lista de TCAM no es infinita, por lo tanto, en las soluciones de administración de Cisco SAN de Cisco, han aparecido opciones de zonificación inteligente y zonificación automática.

Sesión de inmersión profunda HyperFlex




Búscame en la foto :-)

Esta sesión se dedicó a la plataforma HyperFlex en su conjunto: su arquitectura, métodos de protección de datos, diversos escenarios de aplicación, incluso para tareas de nueva generación: por ejemplo, para análisis de datos.

El mensaje principal: las capacidades de la plataforma actual le permiten configurarla para cualquier tarea, escalando y distribuyendo sus recursos entre las tareas que enfrenta la empresa. Los expertos en plataformas presentaron las principales ventajas de la arquitectura hiperconvergente de la plataforma, la más importante de las cuales es la capacidad de implementar rápidamente cualquier solución tecnológica avanzada con costos mínimos de configuración de infraestructura, menor TCO de TI y mayor productividad. Cisco ofrece todos estos beneficios con redes avanzadas y software de gestión y control.

Una parte separada de la sesión se dedicó a las Zonas de disponibilidad lógica, una tecnología que permite aumentar la tolerancia a fallas de los clústeres de servidores. Por ejemplo, si hay 16 nodos ensamblados en un solo clúster con un factor de replicación de 2 o 3, entonces la tecnología creará copias de los servidores, bloqueando las consecuencias de posibles fallas del servidor debido a la donación de espacio.

Resumen y conclusiones




Cisco está promoviendo activamente la idea de que hoy absolutamente todas las opciones para configurar y monitorear la infraestructura de TI están disponibles desde las nubes, y estas soluciones deben cambiarse lo antes posible y en grandes cantidades. Solo porque son más convenientes, elimine la necesidad de resolver una montaña de problemas de infraestructura, haga que su negocio sea más flexible y moderno.

A medida que crece la productividad del dispositivo, también lo hacen todos los riesgos asociados con ellos. Las interfaces de 100 gigabits ya son reales, y debe aprender a administrar las tecnologías en relación con las necesidades del negocio y sus competencias. La implementación de la infraestructura de TI se ha vuelto simple, pero la administración y el desarrollo se han vuelto mucho más complejos.

Al mismo tiempo, parece que no hay nada radicalmente nuevo en términos de tecnologías y protocolos básicos (todo está en Ethernet, TCP / IP, etc.), pero la encapsulación múltiple (VLAN, VXLAN, etc.) hace que el sistema en general sea extremadamente complejo. Detrás de interfaces aparentemente simples, hoy se esconden arquitecturas y problemas muy complejos, y el precio de un error aumenta. Más fácil de administrar: más fácil cometer un error fatal. Siempre debe recordar que la política que modificó se aplica al instante y se aplica a todos los dispositivos de su infraestructura de TI. En el futuro, la introducción de los últimos enfoques y conceptos tecnológicos como ACI requerirá una actualización radical de la capacitación del personal y la elaboración de procesos dentro de la empresa: por simplicidad, tendrá que pagar un alto precio. Con el progreso, aparecen riesgos de un nivel y un perfil completamente nuevos.

Epílogo




Mientras preparaba un artículo sobre las sesiones tecnológicas de Cisco Live, mis colegas del equipo de la nube lograron visitar Cisco Connect en Moscú. Y esto es lo que escucharon interesante allí.

Panel de discusión sobre desafíos de digitalización


Discurso de los gerentes de TI del banco y la empresa minera. Resumen: si antes los especialistas de TI llegaron al liderazgo para la coordinación de compras y lo lograron con un crujido, ahora es al revés: el liderazgo se está ejecutando para TI como parte del proceso de digitalización empresarial. Y aquí se notan dos estrategias: la primera puede llamarse "innovadora": para encontrar nuevos productos, filtrar, probar y encontrar aplicaciones prácticas, la segunda, "estrategia de seguidores tempranos", implica la capacidad de encontrar casos de colegas, socios, proveedores rusos y extranjeros y usarlos en su empresa



Stand "Centros de datos con el nuevo servidor de plataforma Cisco AI (UCS C480 ML M5)"


El servidor contiene 8 chips NVIDIA V100 + 2 CPU Intel de hasta 28 núcleos + hasta 3 TB de RAM + hasta 24 HDD / SSD, todo en una caja de 4 unidades con un potente sistema de enfriamiento. Diseñado para ejecutar aplicaciones basadas en inteligencia artificial y aprendizaje automático, en particular, TensorFlow produce un rendimiento de 8x125 teraFLOP. Basado en el servidor, se implementó un sistema para analizar las rutas de los visitantes de la conferencia procesando secuencias de video.

Nuevo interruptor Nexus 9316D


En una caja de 1 unidad, se colocan 16 puertos de 400 Gbit, esto es un total de 6.4 Tbit.
A modo de comparación, miré el tráfico máximo del punto de intercambio de tráfico más grande en Rusia MSK-IX - 3.3 Tbits, es decir Una parte importante del Runet en la primera unidad.
Capaz de L2, L3, ACI.

Y finalmente: una imagen para llamar la atención con nuestra charla sobre Cisco Connect.



Primer artículo: Cisco Live EMEA 2019: cambiar una vieja bicicleta de TI a un BMW en las nubes

Source: https://habr.com/ru/post/447862/


All Articles