Cisco Live 2019 EMEA. Sessioni tecniche: semplificazione esterna con complicazione interna

Cisco Live 2019 EMEA. Sessioni tecniche: semplificazione esterna con complicazione interna

Sono Artem Klavdiev, leader tecnico del progetto cloud iperconvergente HyperCloud presso Linxdatacenter. Oggi continuerò il racconto della conferenza globale Cisco Live EMEA 2019. Passiamo subito dal generale allo specifico, agli annunci presentati dal venditore in sessioni specializzate.

Questa è stata la mia prima partecipazione a Cisco Live, la mia missione era partecipare a eventi del programma tecnico, immergermi nel mondo delle tecnologie e soluzioni avanzate dell'azienda e prendere piede in prima linea tra gli specialisti coinvolti nell'ecosistema dei prodotti Cisco in Russia.
Mettere in pratica questa missione si è rivelato difficile: il programma delle sessioni tecniche si è rivelato super intenso. Tutte le tavole rotonde, i panel, le masterclass e le discussioni, divise in molte sezioni e iniziate in parallelo, sono semplicemente impossibili da assistere fisicamente. È stato discusso assolutamente tutto: data center, rete, sicurezza informatica, soluzioni software, hardware: qualsiasi aspetto del lavoro di Cisco e dei partner fornitori è stato presentato in una sezione separata con un numero enorme di eventi. Ho dovuto seguire le indicazioni degli organizzatori e creare una sorta di programma personale degli eventi, riservando in anticipo i posti nelle sale.

Mi soffermerò più in dettaglio sulle sessioni a cui ho potuto partecipare.

Accelerazione di Big Data e AI/ML su UCS e HX (Accelerazione di AI e machine learning sulle piattaforme UCS e HyperFlex)

Cisco Live 2019 EMEA. Sessioni tecniche: semplificazione esterna con complicazione interna

Questa sessione è stata dedicata ad una panoramica delle piattaforme Cisco per lo sviluppo di soluzioni basate su intelligenza artificiale e machine learning. Evento semi-marketing intervallato da aspetti tecnici.  

La conclusione è questa: gli ingegneri IT e i data scientist oggi dedicano una notevole quantità di tempo e risorse alla progettazione di architetture che combinano infrastruttura legacy, stack multipli per supportare l'apprendimento automatico e software per gestire questa complessità.

Cisco serve a semplificare questo compito: il fornitore si concentra sul cambiamento dei modelli tradizionali di gestione dei data center e del flusso di lavoro aumentando il livello di integrazione di tutti i componenti necessari per AI/ML.

Ad esempio, un caso di cooperazione tra Cisco e Google: Le aziende combinano le piattaforme UCS e HyperFlex con prodotti software AI/ML leader del settore come Kube Flow per creare un’infrastruttura on-premise completa.

L'azienda ha descritto come KubeFlow, implementato su UCS/HX in combinazione con Cisco Container Platform, consenta di trasformare la soluzione in qualcosa che i dipendenti dell'azienda chiamano "Cisco/Google open hybrid cloud" - un'infrastruttura in cui è possibile implementare il cloud ibrido simmetrico sviluppo e gestione di un ambiente di lavoro con attività di intelligenza artificiale basate simultaneamente su componenti on-premise e in Google Cloud.

Sessione sull'Internet delle cose (IoT)

Cisco Live 2019 EMEA. Sessioni tecniche: semplificazione esterna con complicazione interna

Cisco sta promuovendo attivamente l'idea della necessità di sviluppare l'IoT basato sulle proprie soluzioni di rete. L'azienda ha parlato del suo prodotto Router industriale: una linea speciale di switch e router LTE di piccole dimensioni con maggiore tolleranza ai guasti, resistenza all'umidità e assenza di parti mobili. Tali interruttori possono essere integrati in qualsiasi oggetto nel mondo circostante: trasporti, impianti industriali, edifici commerciali. L’idea principale: “Implementa questi switch nelle tue sedi e gestiscili dal cloud utilizzando una console centralizzata”. La linea funziona con Kinetic Software per ottimizzare l'implementazione e la gestione remota. L’obiettivo è migliorare la gestibilità dei sistemi IoT.

Architettura e distribuzione ACI-Multisite (ACI o Application Centric Infrastructure e microsegmentazione di rete)

Cisco Live 2019 EMEA. Sessioni tecniche: semplificazione esterna con complicazione interna

Una sessione dedicata all'esplorazione del concetto di infrastruttura incentrata sulla microsegmentazione delle reti. Questa è stata la sessione più complessa e dettagliata a cui abbia partecipato. Il messaggio generale di Cisco era il seguente: in precedenza, gli elementi tradizionali dei sistemi IT (rete, server, sistemi di storage, ecc.) erano collegati e configurati separatamente. Il compito degli ingegneri è stato quello di portare tutto in un unico ambiente lavorativo e controllato. UCS ha cambiato la situazione: la parte di rete è stata separata in un'area separata e la gestione dei server ha iniziato a essere effettuata centralmente da un unico pannello. Non importa quanti server ci siano: 10 o 10, qualsiasi numero è controllato da un unico punto di controllo, sia il controllo che la trasmissione dei dati avvengono su un cavo. ACI ti consente di combinare reti e server in un'unica console di gestione.

Quindi, la microsegmentazione delle reti è la funzione più importante di ACI, che consente di separare granularmente le applicazioni nel sistema con diversi livelli di dialogo tra loro e con il mondo esterno. Ad esempio, due macchine virtuali che eseguono ACI non possono comunicare tra loro per impostazione predefinita. L'interazione reciproca si apre solo aprendo il cosiddetto “contratto”, che consente di dettagliare elenchi di accesso per una segmentazione dettagliata (in altre parole, micro) della rete.

La microsegmentazione consente di ottenere una personalizzazione mirata di qualsiasi segmento del sistema IT separando eventuali componenti e collegandoli insieme in qualsiasi configurazione di macchine fisiche e virtuali. Vengono creati gruppi di elementi di calcolo finale (EPG) a cui vengono applicati il ​​filtraggio del traffico e le policy di instradamento. Cisco ACI consente di raggruppare questi EPG nelle applicazioni esistenti in nuovi microsegmenti (uSegs) e configurare policy di rete o attributi VM per ogni specifico elemento di microsegmento.

Ad esempio, è possibile assegnare server Web a un EPG in modo che ad essi vengano applicati gli stessi criteri. Per impostazione predefinita, tutti i nodi di calcolo in un EPG possono comunicare liberamente tra loro. Tuttavia, se l'EPG web comprende server web per le fasi di sviluppo e produzione, potrebbe avere senso impedire loro di comunicare tra loro per evitare guasti. La microsegmentazione con Cisco ACI consente di creare un nuovo EPG e assegnargli automaticamente policy in base agli attributi del nome VM come "Prod-xxxx" o "Dev-xxx".

Naturalmente questa è stata una delle sessioni chiave del programma tecnico.

Evoluzione effettiva di un DC Networking (Evoluzione di una rete di data center nel contesto delle tecnologie di virtualizzazione)

Cisco Live 2019 EMEA. Sessioni tecniche: semplificazione esterna con complicazione interna

Questa sessione è stata logicamente collegata alla sessione sulla microsegmentazione della rete e ha toccato anche il tema del networking dei contenitori. In generale, parlavamo di migrazione dai router virtuali di una generazione ai router di un'altra - con diagrammi di architettura, diagrammi di connessione tra diversi hypervisor, ecc.

Pertanto, l'architettura ACI è VXLAN, microsegmentazione e firewall distribuito, che consente di configurare un firewall per un massimo di 100 macchine virtuali.
L'architettura ACI consente di eseguire queste operazioni non a livello di sistema operativo virtuale, ma a livello di rete virtuale: è più sicuro configurare per ogni macchina un determinato insieme di regole non dal sistema operativo, manualmente, ma a livello di rete virtualizzata , più sicuro, più veloce, meno laborioso, ecc. Migliore controllo di tutto ciò che accade, su ogni segmento della rete. Cosa c'è di nuovo:

  • ACI Anywhere consente di distribuire policy su cloud pubblici (attualmente AWS, in futuro su Azure), nonché su elementi on-premise o sul web, semplicemente copiando la configurazione necessaria di impostazioni e policy.
  • Virtual Pod è un'istanza virtuale ACI, una copia di un modulo di controllo fisico; il suo utilizzo richiede la presenza di un originale fisico (ma questo non è certo).

Come applicare tutto ciò nella pratica: estendere la connettività di rete a cloud di grandi dimensioni. Il multicloud sta arrivando, sempre più aziende utilizzano configurazioni ibride, di fronte alla necessità di configurare reti disparate in ciascun ambiente cloud. ACI Anywhere ora consente di scalare le reti con un approccio, protocolli e policy unificati.

Progettazione di reti di storage per il prossimo decennio in un DC AllFlash (reti SAN)

Una sessione molto interessante sulle reti SAN con una dimostrazione di una serie di migliori pratiche di configurazione.
Contenuti principali: superare il lento drenaggio delle reti SAN. Si verifica quando uno qualsiasi di due o più set di dati viene aggiornato o sostituito con una configurazione più produttiva, ma il resto dell'infrastruttura non cambia. Ciò porta al rallentamento di tutte le applicazioni in esecuzione su questa infrastruttura. Il protocollo FC non dispone della tecnologia di negoziazione delle dimensioni della finestra di cui dispone il protocollo IP. Pertanto, se c'è uno squilibrio nel volume delle informazioni inviate e nella larghezza di banda e nelle aree di calcolo del canale, c'è la possibilità di subire un drenaggio lento. Le raccomandazioni per superare questo problema consistono nel controllare l'equilibrio tra larghezza di banda e velocità operativa del perimetro host e del perimetro di storage in modo che la velocità di aggregazione dei canali sia maggiore di quella del resto della struttura. Abbiamo anche considerato i modi per identificare il drenaggio lento, come la segregazione del traffico utilizzando vSAN.

Molta attenzione è stata prestata alla zonizzazione. La raccomandazione principale per la creazione di una SAN è quella di aderire al principio “1 a 1” (1 iniziatore è registrato per 1 destinazione). E se la fabbrica di rete è grande, genera un'enorme quantità di lavoro. Tuttavia, l'elenco TCAM non è infinito, quindi le soluzioni software per la gestione SAN di Cisco ora includono opzioni di zonizzazione intelligente e automatica.

Sessione di approfondimento HyperFlex

Cisco Live 2019 EMEA. Sessioni tecniche: semplificazione esterna con complicazione interna
Mi trovi nella foto :)

Questa sessione è stata dedicata alla piattaforma HyperFlex nel suo insieme: la sua architettura, i metodi di protezione dei dati, i vari scenari applicativi, anche per compiti di nuova generazione: ad esempio l'analisi dei dati.

Il messaggio principale è che le funzionalità della piattaforma oggi consentono di personalizzarla per qualsiasi attività, ridimensionando e distribuendo le sue risorse tra le attività che l'azienda deve affrontare. Gli esperti di piattaforma hanno presentato i principali vantaggi dell'architettura della piattaforma iperconvergente, il principale dei quali oggi è la capacità di implementare rapidamente qualsiasi soluzione tecnologica avanzata con costi minimi per la configurazione dell'infrastruttura, riducendo il TCO IT e aumentando la produttività. Cisco offre tutti questi vantaggi attraverso software di rete, gestione e controllo leader del settore.

Una parte separata della sessione è stata dedicata alle Logical Availability Zones, una tecnologia che consente di aumentare la tolleranza agli errori dei cluster di server. Ad esempio, se ci sono 16 nodi raccolti in un singolo cluster con un fattore di replica di 2 o 3, la tecnologia creerà copie dei server, coprendo le conseguenze di possibili guasti dei server sacrificando spazio.

Risultati e conclusioni

Cisco Live 2019 EMEA. Sessioni tecniche: semplificazione esterna con complicazione interna

Cisco promuove attivamente l'idea che oggi tutte le possibilità per la creazione e il monitoraggio dell'infrastruttura IT sono disponibili dal cloud e che queste soluzioni devono essere trasferite a queste soluzioni il più presto possibile e in massa. Semplicemente perché sono più convenienti, eliminano la necessità di risolvere una montagna di problemi infrastrutturali e rendono la tua azienda più flessibile e moderna.

Con l’aumento delle prestazioni dei dispositivi, aumentano anche tutti i rischi ad essi associati. Le interfacce a 100 Gigabit sono già reali e bisogna imparare a gestire le tecnologie in relazione alle esigenze aziendali e alle proprie competenze. L'implementazione dell'infrastruttura IT è diventata semplice, ma la gestione e lo sviluppo sono diventati molto più complessi.

Allo stesso tempo, non sembra esserci nulla di radicalmente nuovo in termini di tecnologie e protocolli di base (tutto è su Ethernet, TCP/IP, ecc.), ma l’incapsulamento multiplo (VLAN, VXLAN, ecc.) rende il sistema complessivo estremamente complesso . Oggi, interfacce apparentemente semplici nascondono architetture e problemi molto complessi e il costo di un errore è in aumento. È più facile da controllare: è più facile commettere un errore fatale. Dovresti sempre ricordare che la policy che modifichi viene applicata immediatamente e si applica a tutti i dispositivi della tua infrastruttura IT. In futuro, l'introduzione degli ultimi approcci e concetti tecnologici come ACI richiederà un radicale aggiornamento nella formazione del personale e nello sviluppo dei processi all'interno dell'azienda: la semplicità dovrà pagare un prezzo elevato. Con il progresso compaiono rischi di livello e profilo completamente nuovi.

Finale

Cisco Live 2019 EMEA. Sessioni tecniche: semplificazione esterna con complicazione interna

Mentre stavo preparando un articolo sulle sessioni tecniche di Cisco Live per la pubblicazione, i miei colleghi del team cloud sono riusciti a partecipare a Cisco Connect a Mosca. E questo è ciò che hanno sentito interessante lì.

Tavola rotonda sulle sfide della digitalizzazione

Intervento dei responsabili IT di una banca e di una società mineraria. In sintesi: se prima gli specialisti IT si rivolgevano al management per l'approvazione degli acquisti e la ottenevano con difficoltà, ora è il contrario: il management corre dietro all'IT come parte dei processi di digitalizzazione dell'azienda. E qui si notano due strategie: la prima può essere definita "innovativa": trovare nuovi prodotti, filtrarli, testarli e trovarne un'applicazione pratica, la seconda, la "strategia degli early adopters", prevede la capacità di trovare casi dal russo e colleghi, partner, fornitori stranieri e usali nella tua azienda.

Cisco Live 2019 EMEA. Sessioni tecniche: semplificazione esterna con complicazione interna

Stand “Centri elaborazione dati con il nuovo server Cisco AI Platform (UCS C480 ML M5)”

Il server contiene 8 chip NVIDIA V100 + 2 CPU Intel con un massimo di 28 core + fino a 3 TB di RAM + fino a 24 unità HDD/SSD, il tutto in un case da 4 unità con un potente sistema di raffreddamento. Progettato per eseguire applicazioni basate su intelligenza artificiale e machine learning, in particolare TensorFlow fornisce prestazioni di 8×125 teraFLOP. Sulla base del server è stato implementato un sistema di analisi dei percorsi dei visitatori della conferenza elaborando i flussi video.

Nuovo interruttore Nexus 9316D

Un case da 1 unità può ospitare 16 porte da 400 Gbit, per un totale di 6.4 Tbit.
Per fare un confronto, ho esaminato il traffico di punta del più grande punto di scambio di traffico in Russia MSK-IX - 3.3 Tbit, ovvero una parte significativa di Runet nella prima unità.
Competente in L2, L3, ACI.

E infine: un'immagine per attirare l'attenzione dal nostro discorso a Cisco Connect.

Cisco Live 2019 EMEA. Sessioni tecniche: semplificazione esterna con complicazione interna

Primo articolo: Cisco Live EMEA 2019: sostituire una vecchia bici informatica con una BMW tra le nuvole

Fonte: habr.com

Aggiungi un commento