Cisco Live 2019 EMEA. Sesiones técnicas: simplificación externa con complicación interna

Cisco Live 2019 EMEA. Sesiones técnicas: simplificación externa con complicación interna

Soy Artem Klavdiev, líder técnico del proyecto de nube hiperconvergente HyperCloud en Linxdatacenter. Hoy continuaré la historia de la conferencia global Cisco Live EMEA 2019. Pasemos inmediatamente de lo general a lo específico, a los anuncios presentados por el proveedor en sesiones especializadas.

Esta fue mi primera participación en Cisco Live, mi misión era asistir a eventos del programa técnico, sumergirme en el mundo de las tecnologías y soluciones avanzadas de la compañía y afianzarme en la vanguardia de los especialistas involucrados en el ecosistema de productos Cisco en Rusia.
Implementar esta misión en la práctica resultó difícil: el programa de sesiones técnicas resultó súper intenso. Es simplemente imposible asistir físicamente a todas las mesas redondas, paneles, clases magistrales y debates, divididos en muchas secciones y que comienzan en paralelo. Se discutió absolutamente todo: centros de datos, redes, seguridad de la información, soluciones de software, hardware; cualquier aspecto del trabajo de Cisco y sus socios proveedores se presentó en una sección separada con una gran cantidad de eventos. Tuve que seguir las recomendaciones de los organizadores y crear una especie de programa personal para los eventos, reservando asientos en los pasillos con antelación.

Me detendré con más detalle en las sesiones a las que pude asistir.

Aceleración de Big Data y AI/ML en UCS y HX (Aceleración de AI y aprendizaje automático en las plataformas UCS y HyperFlex)

Cisco Live 2019 EMEA. Sesiones técnicas: simplificación externa con complicación interna

Esta sesión estuvo dedicada a una descripción general de las plataformas de Cisco para el desarrollo de soluciones basadas en inteligencia artificial y aprendizaje automático. Evento de semi-marketing intercalado con aspectos técnicos.  

La conclusión es la siguiente: los ingenieros de TI y los científicos de datos hoy dedican una cantidad significativa de tiempo y recursos a diseñar arquitecturas que combinan infraestructura heredada, múltiples pilas para respaldar el aprendizaje automático y software para administrar este complejo.

Cisco sirve para simplificar esta tarea: el proveedor se centra en cambiar los patrones tradicionales de gestión de flujos de trabajo y centros de datos aumentando el nivel de integración de todos los componentes necesarios para AI/ML.

Como ejemplo, un caso de cooperación entre Cisco y Google: Las empresas combinan las plataformas UCS e HyperFlex con productos de software AI/ML líderes en la industria como Flujo de Kube para crear una infraestructura local integral.

La compañía describió cómo KubeFlow, implementado en UCS/HX en combinación con Cisco Container Platform, permite transformar la solución en algo que los empleados de la compañía llamaron “nube híbrida abierta de Cisco/Google”, una infraestructura en la que es posible implementar la nube simétrica. desarrollo y operación de un entorno de trabajo bajo tareas de IA simultáneamente basado en componentes on-premise y en Google Cloud.

Sesión sobre Internet de las Cosas (IoT)

Cisco Live 2019 EMEA. Sesiones técnicas: simplificación externa con complicación interna

Cisco está promoviendo activamente la idea de la necesidad de desarrollar IoT basado en sus propias soluciones de red. La compañía habló sobre su producto Industrial Router, una línea especial de conmutadores y enrutadores LTE de pequeño tamaño con mayor tolerancia a fallas, resistencia a la humedad y ausencia de piezas móviles. Estos interruptores se pueden integrar en cualquier objeto del mundo circundante: transporte, instalaciones industriales, edificios comerciales. La idea principal: "Implemente estos conmutadores en sus instalaciones y adminístrelos desde la nube utilizando una consola centralizada". La línea funciona con Kinetic Software para optimizar la implementación y gestión remotas. El objetivo es mejorar la capacidad de gestión de los sistemas de IoT.

ACI-Arquitectura e Implementación Multisitio (ACI o Infraestructura Centrada en Aplicaciones, y microsegmentación de red)

Cisco Live 2019 EMEA. Sesiones técnicas: simplificación externa con complicación interna

Una sesión dedicada a explorar el concepto de infraestructura centrada en la microsegmentación de redes. Esta fue la sesión más compleja y detallada a la que he asistido. El mensaje general de Cisco fue el siguiente: anteriormente, los elementos tradicionales de los sistemas informáticos (red, servidores, sistemas de almacenamiento, etc.) se conectaban y configuraban por separado. La tarea de los ingenieros era reunir todo en un entorno de trabajo único y controlado. UCS cambió la situación: la parte de la red se dividió en un área separada y la administración del servidor comenzó a realizarse de manera centralizada desde un solo panel. No importa cuántos servidores haya: 10 o 10, cualquier número se controla desde un único punto de control, tanto el control como la transmisión de datos se realizan a través de un solo cable. ACI le permite combinar redes y servidores en una sola consola de administración.

Entonces, la microsegmentación de redes es la función más importante de ACI, que permite separar granularmente aplicaciones en el sistema con diferentes niveles de diálogo entre ellas y con el mundo exterior. Por ejemplo, dos máquinas virtuales que ejecutan ACI no pueden comunicarse entre sí de forma predeterminada. La interacción entre sí se abre solo abriendo el llamado "contrato", que le permite detallar listas de acceso para una segmentación detallada (en otras palabras, micro) de la red.

La microsegmentación le permite lograr una personalización específica de cualquier segmento del sistema de TI separando cualquier componente y vinculándolo en cualquier configuración de máquinas físicas y virtuales. Se crean grupos de elementos de cálculo final (EPG) a los que se aplican políticas de enrutamiento y filtrado de tráfico. Cisco ACI le permite agrupar estas EPG en aplicaciones existentes en nuevos microsegmentos (uSegs) y configurar políticas de red o atributos de VM para cada elemento de microsegmento específico.

Por ejemplo, puede asignar servidores web a una EPG para que se les apliquen las mismas políticas. De forma predeterminada, todos los nodos informáticos de una EPG pueden comunicarse libremente entre sí. Sin embargo, si la EPG web incluye servidores web para las etapas de desarrollo y producción, puede tener sentido evitar que se comuniquen entre sí para evitar fallos. La microsegmentación con Cisco ACI le permite crear una nueva EPG y asignarle políticas automáticamente en función de los atributos del nombre de la VM, como "Prod-xxxx" o "Dev-xxx".

Por supuesto, esta fue una de las sesiones clave del programa técnico.

Evolución efectiva de un DC Networking (Evolución de una red de centro de datos en el contexto de las tecnologías de virtualización)

Cisco Live 2019 EMEA. Sesiones técnicas: simplificación externa con complicación interna

Esta sesión estuvo lógicamente conectada con la sesión sobre microsegmentación de redes, y también abordó el tema de las redes de contenedores. En general, hablamos de migración de enrutadores virtuales de una generación a enrutadores de otra, con diagramas de arquitectura, diagramas de conexión entre diferentes hipervisores, etc.

Así, la arquitectura ACI es VXLAN, microsegmentación y firewall distribuido, que permiten configurar un firewall para hasta 100 máquinas virtuales.
La arquitectura ACI permite que estas operaciones se realicen no a nivel del sistema operativo virtual, sino a nivel de la red virtual: es más seguro configurar para cada máquina un determinado conjunto de reglas no desde el sistema operativo, manualmente, sino a nivel de la red virtualizada. , más seguro, más rápido, menos laborioso, etc. Mejor control de todo lo que sucede en cada segmento de la red. Qué hay de nuevo:

  • ACI Anywhere le permite distribuir políticas a nubes públicas (actualmente AWS, en el futuro, a Azure), así como a elementos locales o en la web, simplemente copiando la configuración necesaria de configuraciones y políticas.
  • Virtual Pod es una instancia virtual de ACI, una copia de un módulo de control físico; su uso requiere la presencia de un original físico (pero esto no es seguro).

Cómo se puede aplicar esto en la práctica: ampliar la conectividad de la red a grandes nubes. La multinube está llegando, cada vez son más las empresas que utilizan configuraciones híbridas, ante la necesidad de configurar redes dispares en cada entorno de nube. ACI Anywhere ahora permite escalar redes con un enfoque, protocolos y políticas unificadas.

Diseño de redes de almacenamiento para la próxima década en un DC AllFlash (redes SAN)

Una sesión de lo más interesante sobre redes SAN con una demostración de un conjunto de mejores prácticas de configuración.
Contenido principal: superar el drenaje lento en las redes SAN. Ocurre cuando cualquiera de dos o más conjuntos de datos se actualiza o reemplaza con una configuración más productiva, pero el resto de la infraestructura no cambia. Esto provoca una ralentización de todas las aplicaciones que se ejecutan en esta infraestructura. El protocolo FC no tiene la tecnología de negociación del tamaño de ventana que tiene el protocolo IP. Por lo tanto, si hay un desequilibrio en el volumen de información enviada y el ancho de banda y las áreas informáticas del canal, existe la posibilidad de que se produzca un drenaje lento. Las recomendaciones para superar esto son controlar el equilibrio del ancho de banda y la velocidad operativa del borde del host y del borde de almacenamiento para que la velocidad de agregación de canales sea mayor que la del resto de la estructura. También consideramos formas de identificar el drenaje lento, como la segregación del tráfico mediante vSAN.

Se prestó mucha atención a la zonificación. La principal recomendación para establecer una SAN es adherirse al principio “1 a 1” (se registra 1 iniciador para 1 objetivo). Y si la fábrica de redes es grande, genera una enorme cantidad de trabajo. Sin embargo, la lista de TCAM no es infinita, por lo que las soluciones de software para la gestión de SAN de Cisco ahora incluyen opciones de zonificación inteligente y automática.

Sesión de inmersión profunda HyperFlex

Cisco Live 2019 EMEA. Sesiones técnicas: simplificación externa con complicación interna
Encuéntrame en la foto :)

Esta sesión estuvo dedicada a la plataforma HyperFlex en su conjunto: su arquitectura, métodos de protección de datos, diversos escenarios de aplicación, incluso para tareas de nueva generación: por ejemplo, análisis de datos.

El mensaje principal es que las capacidades de la plataforma hoy permiten personalizarla para cualquier tarea, escalando y distribuyendo sus recursos entre las tareas que enfrenta el negocio. Los expertos en plataformas presentaron las principales ventajas de la arquitectura de plataforma hiperconvergente, la principal de las cuales hoy en día es la capacidad de implementar rápidamente cualquier solución tecnológica avanzada con costos mínimos para configurar la infraestructura, reducir el TCO de TI y aumentar la productividad. Cisco ofrece todos estos beneficios a través de un software de control y gestión de redes líder en la industria.

Una parte separada de la sesión estuvo dedicada a las Zonas de Disponibilidad Lógica, una tecnología que permite aumentar la tolerancia a fallos de los clusters de servidores. Por ejemplo, si hay 16 nodos reunidos en un solo clúster con un factor de replicación de 2 o 3, entonces la tecnología creará copias de servidores, cubriendo las consecuencias de posibles fallos del servidor sacrificando espacio.

Resultados y conclusiones

Cisco Live 2019 EMEA. Sesiones técnicas: simplificación externa con complicación interna

Cisco promueve activamente la idea de que hoy en día absolutamente todas las posibilidades para configurar y monitorear la infraestructura de TI están disponibles desde las nubes, y estas soluciones deben cambiarse a estas soluciones lo antes posible y en masa. Simplemente porque son más convenientes, eliminan la necesidad de resolver una montaña de problemas de infraestructura y hacen que su negocio sea más flexible y moderno.

A medida que aumenta el rendimiento de los dispositivos, también aumentan todos los riesgos asociados con ellos. Las interfaces de 100 gigabits ya son reales y es necesario aprender a gestionar las tecnologías en relación con las necesidades empresariales y sus competencias. La implementación de la infraestructura de TI se ha vuelto simple, pero la gestión y el desarrollo se han vuelto mucho más complejos.

Al mismo tiempo, no parece haber nada radicalmente nuevo en términos de tecnologías y protocolos básicos (todo está en Ethernet, TCP/IP, etc.), pero la encapsulación múltiple (VLAN, VXLAN, etc.) hace que el sistema general sea extremadamente complejo. . Hoy en día, interfaces aparentemente simples esconden arquitecturas y problemas muy complejos, y el costo de un error está aumentando. Es más fácil de controlar, es más fácil cometer un error fatal. Siempre debe recordar que la política que cambie se aplica instantáneamente y se aplica a todos los dispositivos de su infraestructura de TI. En el futuro, la introducción de los últimos enfoques y conceptos tecnológicos como ACI requerirá una mejora radical en la formación del personal y el desarrollo de procesos dentro de la empresa: habrá que pagar un alto precio por la simplicidad. Con el progreso, aparecen riesgos de un nivel y perfil completamente nuevos.

El acto final

Cisco Live 2019 EMEA. Sesiones técnicas: simplificación externa con complicación interna

Mientras preparaba un artículo sobre las sesiones técnicas de Cisco Live para su publicación, mis colegas del equipo de la nube lograron asistir a Cisco Connect en Moscú. Y esto es lo que escucharon interesante allí.

Mesa redonda sobre los desafíos de la digitalización

Discurso de responsables TI de un banco y una empresa minera. Resumen: si antes los especialistas en TI acudían a la dirección para solicitar la aprobación de las compras y lo conseguían con dificultad, ahora es al revés: la dirección persigue a la TI como parte de los procesos de digitalización de la empresa. Y aquí se notan dos estrategias: la primera puede llamarse "innovadora": encontrar nuevos productos, filtrarlos, probarlos y encontrarles una aplicación práctica, la segunda, la "estrategia de los primeros usuarios", implica la capacidad de encontrar casos de Rusia y colegas, socios y proveedores extranjeros y utilizarlos en su empresa.

Cisco Live 2019 EMEA. Sesiones técnicas: simplificación externa con complicación interna

Stand “Centros de procesamiento de datos con el nuevo servidor Cisco AI Platform (UCS C480 ML M5)”

El servidor contiene 8 chips NVIDIA V100 + 2 CPU Intel de hasta 28 núcleos + hasta 3 TB de RAM + hasta 24 unidades HDD/SSD, todo en una caja de 4 unidades con un potente sistema de refrigeración. Diseñado para ejecutar aplicaciones basadas en inteligencia artificial y aprendizaje automático, en particular TensorFlow proporciona un rendimiento de 8×125 teraFLOP. Sobre la base del servidor se implementó un sistema para analizar las rutas de los asistentes a la conferencia mediante el procesamiento de transmisiones de vídeo.

Nuevo conmutador Nexus 9316D

Una caja de 1 unidad alberga 16 puertos de 400 Gbit, para un total de 6.4 Tbit.
A modo de comparación, miré el tráfico máximo del punto de intercambio de tráfico más grande de Rusia, MSK-IX: 3.3 Tbit, es decir. una parte importante de Runet en la 1ª unidad.
Competente en L2, L3, ACI.

Y por último: una imagen para llamar la atención de nuestra charla en Cisco Connect.

Cisco Live 2019 EMEA. Sesiones técnicas: simplificación externa con complicación interna

Primer artículo: Cisco Live EMEA 2019: sustitución de una vieja bicicleta informática por una BMW en las nubes

Fuente: habr.com

Añadir un comentario