Cisco Live 2019 EMEA. Séances techniques : simplification externe avec complication interne

Cisco Live 2019 EMEA. Séances techniques : simplification externe avec complication interne

Je suis Artem Klavdiev, responsable technique du projet de cloud hyperconvergé HyperCloud chez Linxdatacenter. Aujourd'hui, je vais continuer l'histoire de la conférence mondiale Cisco Live EMEA 2019. Passons immédiatement du général au particulier, en passant par les annonces présentées par le fournisseur lors de sessions spécialisées.

C'était ma première participation à Cisco Live, ma mission était d'assister aux événements du programme technique, de me plonger dans le monde des technologies et solutions avancées de l'entreprise et de prendre pied au premier rang des spécialistes impliqués dans l'écosystème des produits Cisco en Russie.
La mise en pratique de cette mission s'est avérée difficile : le programme des séances techniques s'est avéré super intense. Toutes les tables rondes, panels, master classes et discussions, divisés en plusieurs sections et commençant en parallèle, sont tout simplement impossibles à assister physiquement. Absolument tout a été discuté : centres de données, réseau, sécurité de l'information, solutions logicielles, matériel - tous les aspects du travail de Cisco et des fournisseurs partenaires ont été présentés dans une section séparée avec un grand nombre d'événements. J'ai dû suivre les recommandations des organisateurs et créer une sorte de programme personnel pour les événements, en réservant à l'avance les places dans les salles.

Je m'attarderai plus en détail sur les séances auxquelles j'ai pu assister.

Accélération du Big Data et de l'IA/ML sur UCS et HX (Accélération de l'IA et de l'apprentissage automatique sur les plateformes UCS et HyperFlex)

Cisco Live 2019 EMEA. Séances techniques : simplification externe avec complication interne

Cette session était consacrée à un aperçu des plateformes Cisco pour le développement de solutions basées sur l'intelligence artificielle et l'apprentissage automatique. Événement semi-marketing entrecoupé d'aspects techniques.  

L’essentiel est le suivant : les ingénieurs informatiques et les data scientists consacrent aujourd’hui beaucoup de temps et de ressources à la conception d’architectures combinant une infrastructure existante, plusieurs piles pour prendre en charge l’apprentissage automatique et des logiciels pour gérer ce complexe.

Cisco sert à simplifier cette tâche : le fournisseur se concentre sur la modification des modèles traditionnels de gestion des centres de données et des flux de travail en augmentant le niveau d'intégration de tous les composants nécessaires à l'IA/ML.

A titre d'exemple, un cas de coopération entre Cisco et Google: Les entreprises combinent les plates-formes UCS et HyperFlex avec des produits logiciels d'IA/ML leaders du secteur, tels que KubeFlow pour créer une infrastructure complète sur site.

L'entreprise a décrit comment KubeFlow, déployé sur UCS/HX en combinaison avec Cisco Container Platform, permet de transformer la solution en quelque chose que les employés de l'entreprise ont appelé « Cloud hybride ouvert Cisco/Google » - une infrastructure dans laquelle il est possible de mettre en œuvre le symétrique. développement et exploitation d'un environnement de travail sous tâches d'IA simultanément basé sur des composants sur site et dans Google Cloud.

Session sur l'Internet des objets (IoT)

Cisco Live 2019 EMEA. Séances techniques : simplification externe avec complication interne

Cisco promeut activement l'idée de la nécessité de développer l'IoT basé sur ses propres solutions réseau. La société a parlé de son produit Industrial Router - une gamme spéciale de commutateurs et de routeurs LTE de petite taille avec une tolérance aux pannes accrue, une résistance à l'humidité et l'absence de pièces mobiles. De tels commutateurs peuvent être intégrés à n'importe quel objet du monde environnant : transports, installations industrielles, bâtiments commerciaux. L’idée principale : « Déployez ces commutateurs dans vos locaux et gérez-les depuis le cloud à l’aide d’une console centralisée. » La ligne fonctionne sur Kinetic Software pour optimiser le déploiement et la gestion à distance. L’objectif est d’améliorer la gérabilité des systèmes IoT.

Architecture et déploiement ACI-Multisite (ACI ou Application Centric Infrastructure et microsegmentation réseau)

Cisco Live 2019 EMEA. Séances techniques : simplification externe avec complication interne

Une session dédiée à l'exploration du concept d'infrastructure axée sur la micro-segmentation des réseaux. Il s’agit de la séance la plus complexe et la plus détaillée à laquelle j’ai assisté. Le message général de Cisco était le suivant : auparavant, les éléments traditionnels des systèmes informatiques (réseau, serveurs, systèmes de stockage, etc.) étaient connectés et configurés séparément. La tâche des ingénieurs était de tout regrouper dans un environnement de travail unique et contrôlé. UCS a changé la situation : la partie réseau a été séparée en une zone distincte et la gestion des serveurs a commencé à être effectuée de manière centralisée à partir d'un seul panneau. Peu importe le nombre de serveurs – 10 ou 10 000, n’importe quel nombre est contrôlé à partir d’un seul point de contrôle, le contrôle et la transmission des données s’effectuent via un seul fil. ACI vous permet de combiner les réseaux et les serveurs dans une seule console de gestion.

Ainsi, la micro-segmentation des réseaux est la fonction la plus importante de l'ACI, qui vous permet de séparer granulairement les applications du système avec différents niveaux de dialogue entre elles et avec le monde extérieur. Par exemple, deux machines virtuelles exécutant ACI ne peuvent pas communiquer entre elles par défaut. L'interaction entre eux ne s'ouvre qu'en ouvrant ce que l'on appelle le « contrat », qui vous permet de détailler les listes d'accès pour une segmentation détaillée (en d'autres termes, micro) du réseau.

La microsegmentation vous permet de réaliser une personnalisation ciblée de n'importe quel segment du système informatique en séparant tous les composants et en les reliant entre eux dans n'importe quelle configuration de machines physiques et virtuelles. Des groupes d'éléments de calcul finaux (EPG) sont créés auxquels des politiques de filtrage et de routage du trafic sont appliquées. Cisco ACI vous permet de regrouper ces EPG dans les applications existantes en nouveaux micro-segments (uSegs) et de configurer des politiques réseau ou des attributs de VM pour chaque élément de micro-segment spécifique.

Par exemple, vous pouvez attribuer des serveurs Web à un EPG afin que les mêmes stratégies leur soient appliquées. Par défaut, tous les nœuds de calcul d'un EPG peuvent communiquer librement entre eux. Cependant, si l'EPG Web inclut des serveurs Web pour les étapes de développement et de production, il peut être judicieux de les empêcher de communiquer entre eux pour éviter les pannes. La microsegmentation avec Cisco ACI vous permet de créer un nouvel EPG et de lui attribuer automatiquement des stratégies en fonction des attributs de nom de VM tels que « Prod-xxxx » ou « Dev-xxx ».

Bien entendu, ce fut l’une des séances clés du programme technique.

Evolution efficace d'un DC Networking (Évolution d'un réseau de data center dans le contexte des technologies de virtualisation)

Cisco Live 2019 EMEA. Séances techniques : simplification externe avec complication interne

Cette session était logiquement liée à la session sur la microsegmentation des réseaux et abordait également le thème de la mise en réseau de conteneurs. De manière générale, nous parlions de migration de routeurs virtuels d'une génération vers des routeurs d'une autre - avec des schémas d'architecture, des schémas de connexion entre différents hyperviseurs, etc.

Ainsi, l'architecture ACI est VXLAN, microsegmentation et pare-feu distribué, qui permettent de configurer un pare-feu pour jusqu'à 100 machines virtuelles.
L'architecture ACI permet d'effectuer ces opérations non pas au niveau du système d'exploitation virtuel, mais au niveau du réseau virtuel : il est plus sûr de configurer pour chaque machine un certain ensemble de règles non pas depuis le système d'exploitation, manuellement, mais au niveau du réseau virtualisé , plus sûr, plus rapide, moins laborieux, etc. Meilleur contrôle de tout ce qui se passe – sur chaque segment du réseau. Quoi de neuf:

  • ACI Anywhere vous permet de distribuer des politiques vers des cloud publics (actuellement AWS, à l'avenir - vers Azure), ainsi que vers des éléments sur site ou sur le Web, simplement en copiant la configuration nécessaire des paramètres et des politiques.
  • Virtual Pod est une instance virtuelle ACI, copie d'un module de contrôle physique ; son utilisation nécessite la présence d'un original physique (mais ce n'est pas certain).

Comment cela peut être appliqué en pratique : extension de la connectivité réseau aux grands cloud. Le multicloud arrive, de plus en plus d'entreprises utilisent des configurations hybrides, confrontées à la nécessité de configurer des réseaux disparates dans chaque environnement cloud. ACI Anywhere permet désormais de faire évoluer les réseaux avec une approche, des protocoles et des politiques unifiés.

Conception de réseaux de stockage pour la prochaine décennie dans un DC AllFlash (réseaux SAN)

Une session très intéressante sur les réseaux SAN avec une démonstration d'un ensemble de meilleures pratiques de configuration.
Contenu principal : surmonter la fuite lente sur les réseaux SAN. Cela se produit lorsqu’un ou plusieurs ensembles de données sont mis à niveau ou remplacés par une configuration plus productive, mais que le reste de l’infrastructure ne change pas. Cela entraîne un ralentissement de toutes les applications exécutées sur cette infrastructure. Le protocole FC ne dispose pas de la technologie de négociation de taille de fenêtre dont dispose le protocole IP. Par conséquent, s'il existe un déséquilibre dans le volume d'informations envoyées et dans la bande passante et les zones de calcul du canal, il existe un risque de fuite lente. Les recommandations pour surmonter ce problème consistent à contrôler l’équilibre de la bande passante et la vitesse de fonctionnement de la périphérie hôte et de la périphérie de stockage afin que la vitesse d’agrégation des canaux soit supérieure à celle du reste de la structure. Nous avons également envisagé des moyens d'identifier les fuites lentes, telles que la ségrégation du trafic à l'aide de vSAN.

Une grande attention a été accordée au zonage. La principale recommandation pour la mise en place d'un SAN est de respecter le principe du « 1 pour 1 » (1 initiateur est enregistré pour 1 cible). Et si l’usine à réseaux est grande, cela génère une énorme quantité de travail. Cependant, la liste TCAM n'est pas infinie, c'est pourquoi les solutions logicielles de gestion SAN de Cisco incluent désormais des options de zonage intelligent et de zonage automatique.

Séance de plongée approfondie HyperFlex

Cisco Live 2019 EMEA. Séances techniques : simplification externe avec complication interne
Retrouvez-moi sur la photo :)

Cette session était dédiée à la plateforme HyperFlex dans son ensemble - son architecture, ses méthodes de protection des données, divers scénarios d'application, y compris pour des tâches de nouvelle génération : par exemple, l'analyse de données.

Le message principal est que les capacités de la plate-forme vous permettent aujourd'hui de la personnaliser pour n'importe quelle tâche, en faisant évoluer et en répartissant ses ressources entre les tâches auxquelles l'entreprise est confrontée. Les experts en plates-formes ont présenté les principaux avantages de l'architecture de plate-forme hyperconvergée, dont le principal aujourd'hui est la capacité de déployer rapidement des solutions technologiques avancées avec des coûts minimes de configuration de l'infrastructure, réduisant ainsi le coût total de possession informatique et augmentant la productivité. Cisco offre tous ces avantages grâce à des logiciels de mise en réseau, de gestion et de contrôle de pointe.

Une partie distincte de la session était consacrée aux zones de disponibilité logique, une technologie qui permet d'augmenter la tolérance aux pannes des clusters de serveurs. Par exemple, s'il y a 16 nœuds regroupés dans un seul cluster avec un facteur de réplication de 2 ou 3, alors la technologie créera des copies de serveurs, couvrant les conséquences d'éventuelles pannes de serveur en sacrifiant de l'espace.

Résultats et conclusions

Cisco Live 2019 EMEA. Séances techniques : simplification externe avec complication interne

Cisco promeut activement l'idée qu'aujourd'hui, absolument toutes les possibilités de configuration et de surveillance de l'infrastructure informatique sont disponibles à partir des nuages, et que ces solutions doivent être basculées vers ces solutions dès que possible et en masse. Tout simplement parce qu’ils sont plus pratiques, éliminent le besoin de résoudre une montagne de problèmes d’infrastructure et rendent votre entreprise plus flexible et moderne.

À mesure que les performances des appareils augmentent, tous les risques qui y sont associés augmentent également. Les interfaces 100 gigabits existent déjà et vous devez apprendre à gérer les technologies en fonction des besoins de votre entreprise et de vos compétences. Le déploiement de l'infrastructure informatique est devenu simple, mais la gestion et le développement sont devenus beaucoup plus complexes.

En même temps, il ne semble rien y avoir de radicalement nouveau en termes de technologies et de protocoles de base (tout est sur Ethernet, TCP/IP, etc.), mais l'encapsulation multiple (VLAN, VXLAN, etc.) rend l'ensemble du système extrêmement complexe. . Aujourd’hui, des interfaces apparemment simples cachent des architectures et des problèmes très complexes, et le coût d’une erreur augmente. C'est plus facile à contrôler - il est plus facile de commettre une erreur fatale. N’oubliez jamais que la politique que vous modifiez est appliquée instantanément et s’applique à tous les appareils de votre infrastructure informatique. À l’avenir, l’introduction des dernières approches et concepts technologiques tels que l’ACI nécessitera une mise à niveau radicale de la formation du personnel et du développement des processus au sein de l’entreprise : il faudra payer le prix fort pour la simplicité. Avec le progrès, des risques d'un niveau et d'un profil complètement nouveaux apparaissent.

Le final

Cisco Live 2019 EMEA. Séances techniques : simplification externe avec complication interne

Alors que je préparais la publication d'un article sur les sessions techniques Cisco Live, mes collègues de l'équipe cloud ont réussi à assister à Cisco Connect à Moscou. Et c’est ce qu’ils ont entendu d’intéressant là-bas.

Table ronde sur les défis de la numérisation

Discours des responsables informatiques d'une banque et d'une société minière. Résumé : si auparavant les informaticiens s'adressaient à la direction pour approuver les achats et y parvenaient avec difficulté, c'est désormais l'inverse : la direction s'en prend à l'informatique dans le cadre des processus de numérisation de l'entreprise. Et ici, deux stratégies sont perceptibles : la première peut être qualifiée d'« innovante » - trouver de nouveaux produits, les filtrer, les tester et leur trouver des applications pratiques, la seconde, la « stratégie des premiers adoptants », implique la capacité de trouver des cas en Russie et collègues, partenaires, fournisseurs étrangers et utilisez-les dans votre entreprise.

Cisco Live 2019 EMEA. Séances techniques : simplification externe avec complication interne

Stand « Centres de traitement de données avec le nouveau serveur Cisco AI Platform (UCS C480 ML M5) »

Le serveur contient 8 puces NVIDIA V100 + 2 processeurs Intel avec jusqu'à 28 cœurs + jusqu'à 3 To de RAM + jusqu'à 24 disques HDD/SSD, le tout dans un boîtier de 4 unités doté d'un système de refroidissement puissant. Conçu pour exécuter des applications basées sur l'intelligence artificielle et l'apprentissage automatique, TensorFlow offre notamment des performances de 8 × 125 téraFLOP. Basé sur le serveur, un système d'analyse des parcours des visiteurs de la conférence a été mis en place par traitement de flux vidéo.

Nouveau commutateur Nexus 9316D

Un boîtier d'une unité peut accueillir 1 ports de 16 Gbit, pour un total de 400 Tbit.
À titre de comparaison, j'ai regardé le trafic de pointe du plus grand point d'échange de trafic de Russie MSK-IX - 3.3 Tbit, c'est-à-dire une partie importante de Runet dans la 1ère unité.
Compétent en L2, L3, ACI.

Et enfin : une image pour attirer l'attention de notre discours à Cisco Connect.

Cisco Live 2019 EMEA. Séances techniques : simplification externe avec complication interne

Premier article: Cisco Live EMEA 2019 : remplacer un vieux vélo informatique par une BMW dans les nuages

Source: habr.com

Ajouter un commentaire