100GbE: lux sau necesitate esențială?

IEEE P802.3ba, un standard pentru transmiterea datelor pe 100 Gigabit Ethernet (100GbE), a fost dezvoltat între 2007 și 2010 [3], dar a devenit larg răspândit abia în 2018 [5]. De ce în 2018 și nu mai devreme? Și de ce imediat în grămadă? Există cel puțin cinci motive pentru asta...

100GbE: lux sau necesitate esențială?

IEEE P802.3ba a fost dezvoltat în primul rând pentru a răspunde nevoilor centrelor de date și nevoilor punctelor de schimb de trafic Internet (între operatori independenți); precum și pentru a asigura funcționarea neîntreruptă a serviciilor web consumatoare de resurse, cum ar fi portaluri cu o cantitate mare de conținut video (de exemplu, YouTube); și pentru calcul de înaltă performanță. [3] Utilizatorii obișnuiți de internet contribuie, de asemenea, la schimbarea cererii de lățime de bandă: mulți oameni au camere digitale și doresc să transmită în flux conținutul pe care îl captează pe Internet. Acea. Volumul de conținut care circulă pe internet devine din ce în ce mai mare în timp. Atât la nivel profesional, cât și la nivel de consumator. În toate aceste cazuri, la transferul de date de la un domeniu la altul, debitul total al nodurilor cheie ale rețelei a depășit de mult capacitățile porturilor 10GbE. [1] Acesta este motivul apariției unui nou standard: 100GbE.

Centrele de date mari și furnizorii de servicii cloud folosesc deja în mod activ 100GbE și intenționează să treacă treptat la 200GbE și 400GbE în câțiva ani. În același timp, se uită deja la viteze care depășesc terabit. [6] Deși există unii furnizori mari care trec la 100GbE abia anul trecut (de exemplu, Microsoft Azure). Centrele de date care rulează calculatoare de înaltă performanță pentru servicii financiare, platforme guvernamentale, platforme de petrol și gaze și utilități au început, de asemenea, să treacă la 100GbE. [5]

În centrele de date pentru întreprinderi, cererea de lățime de bandă este oarecum mai mică: doar recent 10GbE a devenit aici o necesitate mai degrabă decât un lux. Cu toate acestea, pe măsură ce rata consumului de trafic crește din ce în ce mai rapid, este îndoielnic că 10GbE va trăi în centrele de date ale întreprinderilor cel puțin 10 sau chiar 5 ani. În schimb, vom vedea o trecere rapidă la 25 GbE și o trecere și mai rapidă la 100 GbE. [6] Pentru că, după cum notează analiștii Intel, intensitatea traficului în interiorul centrului de date crește anual cu 25%. [5]

Analiștii de la Dell și Hewlett Packard afirmă [4] că 2018 este anul 100GbE pentru centrele de date. În august 2018, livrările de echipamente de 100 GbE au fost de două ori mai mari decât livrările pentru întregul an 2017. Iar ritmul livrărilor continuă să se accelereze pe măsură ce centrele de date încep să se îndepărteze în masă de la 40GbE. Este de așteptat ca până în 2022, 19,4 milioane de porturi 100GbE să fie livrate anual (în 2017, pentru comparație, această cifră a fost de 4,6 milioane). [4] În ceea ce privește costurile, în 2017 s-au cheltuit 100 miliarde USD pe porturi 7GbE, iar în 2020, conform previziunilor, se vor cheltui aproximativ 20 miliarde USD (vezi Fig. 1). [1]

100GbE: lux sau necesitate esențială?
Figura 1. Statistici și previziuni ale cererii de echipamente de rețea

De ce acum? 100GbE nu este chiar o tehnologie nouă, așa că de ce există atâta hype în jurul ei acum?

1) Pentru că această tehnologie s-a maturizat și a devenit mai ieftină. În 2018 am depășit limita atunci când utilizarea platformelor cu porturi de 100 Gigabit în centrul de date a devenit mai rentabilă decât „stivuirea” mai multor platforme de 10 Gigabit. Exemplu: Ciena 5170 (a se vedea figura 2) este o platformă compactă care oferă o capacitate totală de 800GbE (4x100GbE, 40x10GbE). Dacă sunt necesare mai multe porturi de 10 Gigabit pentru a asigura debitul necesar, atunci costurile hardware-ului suplimentar, spațiului suplimentar, consumul de energie în exces, întreținerea continuă, piese de schimb suplimentare și sistemele de răcire suplimentare se adună la o sumă destul de ordonată. [1] De exemplu, specialiștii Hewlett Packard, analizând potențialele beneficii ale trecerii de la 10GbE la 100GbE, au ajuns la următoarele cifre: performanță mai mare (56%), costuri totale mai mici (27%), consum redus de energie (31%), simplificarea conexiunilor prin cablu (cu 38%). [5]

100GbE: lux sau necesitate esențială?
Figura 2. Ciena 5170: exemplu de platformă cu porturi de 100 Gigabit

2) Juniper și Cisco și-au creat în sfârșit propriile ASIC-uri pentru switch-uri de 100 GbE. [5] Ceea ce este o confirmare elocventă a faptului că tehnologia 100GbE este cu adevărat matură. Faptul este că este rentabil să creați cipuri ASIC numai atunci când, în primul rând, logica implementată pe acestea nu necesită modificări în viitorul previzibil și, în al doilea rând, atunci când sunt fabricate un număr mare de cipuri identice. Juniper și Cisco nu ar produce aceste ASIC-uri fără a avea încredere în maturitatea de 100GbE.

3) Deoarece Broadcom, Cavium și Mellanox Technologie au început să producă procesoare cu suport 100GbE, iar aceste procesoare sunt deja folosite în switch-uri de la producători precum Dell, Hewlett Packard, Huawei Technologies, Lenovo Group etc. [5]

4) Deoarece serverele găzduite în rafturi de servere sunt din ce în ce mai echipate cu cele mai recente adaptoare de rețea Intel (vezi Figura 3), cu două porturi de 25 Gigabit și uneori chiar adaptoare de rețea convergente cu două porturi de 40 Gigabit (XXV710 și XL710) . {Figura 3. Cele mai recente NIC-uri Intel: XXV710 și XL710}

5) Deoarece echipamentul 100GbE este compatibil cu versiunea inversă, ceea ce simplifică implementarea: puteți reutiliza cablurile deja rutate (doar conectați un nou transceiver la ele).

În plus, disponibilitatea 100GbE ne pregătește pentru noi tehnologii precum „NVMe over Fabrics” (de exemplu, Samsung Evo Pro 256 GB NVMe PCIe SSD; vezi Fig. 4) [8, 10], „Storage Area Network” (SAN) ) / „Software Defined Storage” (vezi Fig. 5) [7], RDMA [11], care fără 100GbE nu și-ar putea realiza întregul potențial.

100GbE: lux sau necesitate esențială?
Figura 4. Samsung Evo Pro 256 GB NVMe PCIe SSD

100GbE: lux sau necesitate esențială?
Figura 5. „Storage Area Network” (SAN) / „Software Defined Storage”

În cele din urmă, ca exemplu exotic al cererii practice de utilizare a 100GbE și a tehnologiilor de mare viteză aferente, putem cita cloud-ul științific al Universității din Cambridge (vezi Fig. 6), care este construit pe baza 100GbE (Spectrum). Switch-uri Ethernet SN2700) - pentru a asigura, printre altele, funcționarea eficientă a stocării pe disc distribuite NexentaEdge SDS, care poate supraîncărca cu ușurință o rețea 10/40GbE. [2] Astfel de nori științifici de înaltă performanță sunt desfășurați pentru a rezolva o mare varietate de probleme științifice aplicate [9, 12]. De exemplu, oamenii de știință din domeniul medical folosesc astfel de nori pentru a descifra genomul uman, iar canalele de 100 GbE sunt folosite pentru a transfera informații între grupurile de cercetare universitare.

100GbE: lux sau necesitate esențială?
Figura 6. Fragment din norul științific al Universității din Cambridge

Bibliografie

  1. John Hawkins. 100GbE: mai aproape de margine, mai aproape de realitate // 2017.
  2. Amit Katz. Switch-uri 100GbE – Ai făcut matematica? // 2016.
  3. Margaret Rose. 100 Gigabit Ethernet (100GbE).
  4. David Graves. Dell EMC se dublează pe 100 Gigabit Ethernet pentru un centru de date deschis și modern // 2018.
  5. Mary Branscombe. Anul 100GbE în rețelele de centre de date // 2018.
  6. Jarred Baker. Mișcarea mai rapidă în Centrul de date Enterprise // 2017.
  7. Tom Clark. Proiectarea rețelelor de zonă de stocare: o referință practică pentru implementarea SAN-urilor Fibre Channel și IP. 2003. 572p.
  8. James O'Reilly. Stocare în rețea: instrumente și tehnologii pentru stocarea datelor companiei dvs. // 2017. 280p.
  9. James Sullivan. Competiția de grup de studenți 2017, Team University of Texas at Austin/Texas State University: Reproducerea vectorizării potențialului multicorp Tersoff pe arhitecturile Intel Skylake și NVIDIA V100 // Parallel Computing. v.79, 2018. pp. 30-35.
  10. Manolis Katevenis. Următoarea generație de sisteme de clasă Exascale: proiectul ExaNeSt // Microprocesoare și microsisteme. v.61, 2018. pp. 58-71.
  11. Hari Subramoni. RDMA over Ethernet: Un studiu preliminar // Proceedings of Workshop on High Performance Interconnects for Distributed Computing. 2009.
  12. Chris Broekema. Transferuri de date eficiente din punct de vedere energetic în radioastronomie cu software UDP RDMA // Sisteme informatice de generație viitoare. v.79, 2018. pp. 215-224.

PS. Acest articol a fost publicat inițial în "Administrator de sistem".

Numai utilizatorii înregistrați pot participa la sondaj. Loghează-te, Vă rog.

De ce centrele mari de date au început să treacă în masă la 100GbE?

  • De fapt, nimeni nu a început încă să se mute nicăieri...

  • Pentru că această tehnologie s-a maturizat și a devenit mai ieftină

  • Pentru că Juniper și Cisco au creat ASIC-uri pentru switch-uri de 100 GbE

  • Deoarece Broadcom, Cavium și Mellanox Technologie au adăugat suport 100GbE

  • Pentru că acum serverele au porturi de 25 și 40 de gigabiți

  • Versiunea ta (scrieți în comentarii)

Au votat 12 utilizatori. 15 utilizatori s-au abținut.

Sursa: www.habr.com

Adauga un comentariu