100GbE: lusso o necessità essenziale?

IEEE P802.3ba, uno standard per la trasmissione di dati su 100 Gigabit Ethernet (100GbE), è stato sviluppato tra il 2007 e il 2010 [3], ma si è diffuso solo nel 2018 [5]. Perché nel 2018 e non prima? E perché subito in massa? Ci sono almeno cinque ragioni per questo...

100GbE: lusso o necessità essenziale?

IEEE P802.3ba è stato sviluppato principalmente per soddisfare le esigenze dei data center e le esigenze dei punti di scambio del traffico Internet (tra operatori indipendenti); nonché per garantire il funzionamento ininterrotto di servizi web ad alta intensità di risorse, come portali con una grande quantità di contenuti video (ad esempio YouTube); e per il calcolo ad alte prestazioni. [3] Anche gli utenti comuni di Internet contribuiscono a modificare le richieste di larghezza di banda: molte persone possiedono fotocamere digitali e desiderano trasmettere in streaming i contenuti acquisiti su Internet. Quello. Il volume dei contenuti che circolano su Internet sta diventando sempre più grande nel tempo. Sia a livello professionale che consumer. In tutti questi casi, durante il trasferimento di dati da un dominio a un altro, il throughput totale dei nodi chiave della rete supera da tempo le capacità delle porte 10GbE. [1] Questo è il motivo per l'emergere di un nuovo standard: 100GbE.

Grandi data center e fornitori di servizi cloud stanno già utilizzando attivamente 100GbE e prevedono di passare gradualmente a 200GbE e 400GbE entro un paio d'anni. Allo stesso tempo, stanno già valutando velocità superiori al terabit. [6] Sebbene ci siano alcuni grandi fornitori che stanno passando a 100GbE solo l'anno scorso (ad esempio, Microsoft Azure). Anche i data center che utilizzano elaborazione ad alte prestazioni per servizi finanziari, piattaforme governative, piattaforme petrolifere e del gas e servizi di pubblica utilità hanno iniziato a passare a 100 GbE. [5]

Nei data center aziendali, la domanda di larghezza di banda è leggermente inferiore: solo di recente 10GbE è diventata una necessità piuttosto che un lusso. Tuttavia, poiché il tasso di consumo del traffico cresce sempre più rapidamente, è improbabile che 10GbE sopravviverà nei data center aziendali per almeno 10 o addirittura 5 anni. Vedremo invece un rapido passaggio a 25GbE e uno ancora più rapido a 100GbE. [6] Perché, come notano gli analisti Intel, l'intensità del traffico all'interno del data center aumenta ogni anno del 25%. [5]

Gli analisti di Dell e Hewlett Packard affermano [4] che il 2018 sarà l’anno dei 100GbE per i data center. Nell’agosto 2018, le consegne di apparecchiature 100GbE erano il doppio delle consegne dell’intero anno 2017. E il ritmo delle spedizioni continua ad accelerare man mano che i data center iniziano ad allontanarsi in massa da 40GbE. Si prevede che entro il 2022 verranno spedite 19,4 milioni di porte 100GbE ogni anno (nel 2017, per confronto, questa cifra era di 4,6 milioni). [4] Per quanto riguarda i costi, nel 2017 sono stati spesi 100 miliardi di dollari per le porte 7GbE e nel 2020, secondo le previsioni, saranno spesi circa 20 miliardi di dollari (vedi Fig. 1). [1]

100GbE: lusso o necessità essenziale?
Figura 1. Statistiche e previsioni della domanda di apparecchiature di rete

Perché ora? 100GbE non è esattamente una nuova tecnologia, quindi perché c'è così tanto clamore attorno ad essa adesso?

1) Perché questa tecnologia è maturata ed è diventata più economica. È stato nel 2018 che abbiamo superato il limite quando l'utilizzo di piattaforme con porte da 100 Gigabit nel data center è diventato più conveniente rispetto allo "impilamento" di diverse piattaforme da 10 Gigabit. Esempio: Ciena 5170 (vedere Figura 2) è una piattaforma compatta che fornisce un throughput aggregato di 800 GbE (4x100GbE, 40x10GbE). Se sono necessarie più porte da 10 Gigabit per fornire il throughput necessario, i costi di hardware aggiuntivo, spazio aggiuntivo, consumo energetico eccessivo, manutenzione continua, pezzi di ricambio aggiuntivi e sistemi di raffreddamento aggiuntivi si sommano a una somma piuttosto ordinata. [1] Ad esempio, gli specialisti di Hewlett Packard, analizzando i potenziali vantaggi del passaggio da 10GbE a 100GbE, sono arrivati ​​ai seguenti dati: prestazioni più elevate (56%), costi totali inferiori (27%), consumo energetico inferiore (31%), semplificazione collegamenti via cavo (del 38%). [5]

100GbE: lusso o necessità essenziale?
Figura 2. Ciena 5170: piattaforma di esempio con porte 100 Gigabit

2) Juniper e Cisco hanno finalmente creato i propri ASIC per switch 100GbE. [5] Il che è un’eloquente conferma del fatto che la tecnologia 100GbE è davvero matura. Il fatto è che è conveniente creare chip ASIC solo quando, in primo luogo, la logica implementata su di essi non richiede modifiche nel prossimo futuro e, in secondo luogo, quando viene prodotto un gran numero di chip identici. Juniper e Cisco non produrrebbero questi ASIC senza avere fiducia nella maturità del 100GbE.

3) Perché Broadcom, Cavium e Mellanox Technologie hanno iniziato a produrre processori con supporto 100GbE e questi processori sono già utilizzati negli switch di produttori come Dell, Hewlett Packard, Huawei Technologies, Lenovo Group, ecc. [5]

4) Perché i server alloggiati nei server rack sono sempre più dotati degli ultimi adattatori di rete Intel (vedi Figura 3), con due porte da 25 Gigabit, e talvolta anche di adattatori di rete convergenti con due porte da 40 Gigabit (XXV710 e XL710). {Figura 3. Ultime schede NIC Intel: XXV710 e XL710}

5) Perché le apparecchiature 100GbE sono retrocompatibili, il che semplifica l'implementazione: è possibile riutilizzare i cavi già instradati (basta collegare loro un nuovo ricetrasmettitore).

Inoltre, la disponibilità di 100GbE ci prepara a nuove tecnologie come “NVMe over Fabrics” (ad esempio, Samsung Evo Pro 256 GB NVMe PCIe SSD; vedere Fig. 4) [8, 10], “Storage Area Network” (SAN ) / “Software Defined Storage” (vedi Fig. 5) [7], RDMA [11], che senza 100GbE non potrebbero realizzare il loro pieno potenziale.

100GbE: lusso o necessità essenziale?
Figura 4. SSD Samsung Evo Pro da 256 GB NVMe PCIe

100GbE: lusso o necessità essenziale?
Figura 5. “Storage Area Network” (SAN)/“Software Defined Storage”

Infine, come esempio esotico della domanda pratica per l'uso di 100GbE e delle relative tecnologie ad alta velocità, possiamo citare il cloud scientifico dell'Università di Cambridge (vedi Fig. 6), che è costruito sulla base di 100GbE (Spectrum Switch Ethernet SN2700) - per garantire, tra le altre cose, un funzionamento efficiente dello storage su disco distribuito NexentaEdge SDS, che può facilmente sovraccaricare una rete 10/40GbE. [2] Tali cloud scientifici ad alte prestazioni vengono utilizzati per risolvere un'ampia varietà di problemi scientifici applicati [9, 12]. Ad esempio, gli scienziati medici utilizzano tali nuvole per decifrare il genoma umano e i canali 100GbE vengono utilizzati per trasferire informazioni tra gruppi di ricerca universitari.

100GbE: lusso o necessità essenziale?
Figura 6. Frammento del cloud scientifico dell'Università di Cambridge

Bibliografia

  1. John Hawkins. 100GbE: più vicini all'edge, più vicini alla realtà // 2017.
  2. Amit Katz. Switch 100GbE: hai fatto i conti? // 2016.
  3. Margherita Rosè. 100 Gigabit-Ethernet (100GbE).
  4. David Graves. Dell EMC raddoppia la connettività 100 Gigabit Ethernet per il data center aperto e moderno // 2018.
  5. Maria Branscombe. L'anno del 100GbE nelle reti di data center // 2018.
  6. Jarred Baker. Muoversi più velocemente nel data center aziendale // 2017.
  7. Tom Clark. Progettazione di Storage Area Network: un riferimento pratico per l'implementazione di Fibre Channel e SAN IP. 2003p.
  8. James O'Reilly. Archiviazione di rete: strumenti e tecnologie per archiviare i dati della tua azienda // 2017. 280p.
  9. James Sullivan. Concorso per cluster di studenti 2017, Team University of Texas presso Austin/Texas State University: riproduzione della vettorizzazione del potenziale multi-corpo di Tersoff sulle architetture Intel Skylake e NVIDIA V100 // Parallel Computing. v.79, 2018, pp. 30-35.
  10. Manolis Katevenis. La prossima generazione di sistemi di classe Exascale: il progetto ExaNeSt // Microprocessori e microsistemi. v.61, 2018, pp. 58-71.
  11. Hari Subramoni. RDMA su Ethernet: uno studio preliminare // Atti del workshop sulle interconnessioni ad alte prestazioni per il calcolo distribuito. 2009.
  12. Chris Broekema. Trasferimenti dati efficienti dal punto di vista energetico in radioastronomia con il software UDP RDMA // Sistemi informatici della generazione futura. v.79, 2018, pp. 215-224.

PS. Questo articolo è stato originariamente pubblicato in "Amministratore di sistema".

Solo gli utenti registrati possono partecipare al sondaggio. AccediPer favore.

Perché i grandi data center hanno iniziato a passare in massa a 100GbE?

  • In realtà, nessuno ha ancora iniziato a spostarsi da nessuna parte...

  • Perché questa tecnologia è maturata ed è diventata più economica

  • Perché Juniper e Cisco hanno creato ASIC per switch 100GbE

  • Perché Broadcom, Cavium e Mellanox Technologie hanno aggiunto il supporto 100GbE

  • Perché i server ora hanno porte da 25 e 40 gigabit

  • La tua versione (scrivi nei commenti)

12 utenti hanno votato. 15 utenti si sono astenuti.

Fonte: habr.com

Aggiungi un commento