100GbE: luksus eller væsentlig nødvendighed?

IEEE P802.3ba, en standard til transmission af data over 100 Gigabit Ethernet (100GbE), blev udviklet mellem 2007 og 2010 [3], men blev først udbredt i 2018 [5]. Hvorfor i 2018 og ikke tidligere? Og hvorfor straks i hobetal? Det er der mindst fem grunde til...

100GbE: luksus eller væsentlig nødvendighed?

IEEE P802.3ba blev udviklet primært til at imødekomme behovene i datacentre og behovene for internettrafikudvekslingspunkter (mellem uafhængige operatører); samt at sikre uafbrudt drift af ressourcekrævende webtjenester, såsom portaler med en stor mængde videoindhold (for eksempel YouTube); og til højtydende databehandling. [3] Almindelige internetbrugere bidrager også til skiftende båndbreddekrav: Mange mennesker har digitalkameraer, og folk vil gerne streame det indhold, de fanger over internettet. At. Mængden af ​​indhold, der cirkulerer på internettet, bliver større og større over tid. Både på fagligt og forbrugerniveau. I alle disse tilfælde, når der overføres data fra et domæne til et andet, har den samlede gennemstrømning af nøglenetværksknuder længe overskredet mulighederne for 10GbE-porte. [1] Dette er årsagen til fremkomsten af ​​en ny standard: 100GbE.

Store datacentre og cloud-tjenesteudbydere bruger allerede aktivt 100GbE og planlægger gradvist at flytte til 200GbE og 400GbE om et par år. Samtidig ser de allerede på hastigheder, der overstiger terabit. [6] Selvom der er nogle store leverandører, der først flytter til 100GbE sidste år (for eksempel Microsoft Azure). Datacentre, der kører højtydende databehandling til finansielle tjenester, offentlige platforme, olie- og gasplatforme og forsyningsselskaber er også begyndt at flytte til 100 GbE. [5]

I virksomhedsdatacentre er efterspørgslen efter båndbredde noget lavere: Først for nylig er 10GbE blevet en nødvendighed snarere end en luksus her. Men da hastigheden af ​​trafikforbrug vokser mere og hurtigere, er det tvivlsomt, om 10GbE vil leve i virksomhedens datacentre i mindst 10 eller endda 5 år. I stedet vil vi se et hurtigt skift til 25 GbE og et endnu hurtigere skift til 100 GbE. [6] Fordi, som Intel-analytikere bemærker, øges intensiteten af ​​trafikken inde i datacentret årligt med 25 %. [5]

Analytikere fra Dell og Hewlett Packard udtaler [4], at 2018 er året for 100 GbE for datacentre. Tilbage i august 2018 var leverancerne af 100GbE-udstyr dobbelt så høje som leverancerne for hele 2017-året. Og tempoet i forsendelser fortsætter med at accelerere, efterhånden som datacentre begynder at bevæge sig væk fra 40 GbE i hobetal. Det forventes, at der i 2022 vil blive afsendt 19,4 millioner 100GbE-porte årligt (i 2017 var dette tal til sammenligning 4,6 millioner). [4] Hvad angår omkostninger, blev der i 2017 brugt $100 milliarder på 7GbE-porte, og i 2020 vil der ifølge prognoser blive brugt omkring $20 milliarder (se fig. 1). [1]

100GbE: luksus eller væsentlig nødvendighed?
Figur 1. Statistik og prognoser for efterspørgsel efter netværksudstyr

Hvorfor nu? 100GbE er ikke ligefrem en ny teknologi, så hvorfor er der så meget hype omkring det nu?

1) Fordi denne teknologi er modnet og blevet billigere. Det var i 2018, at vi gik over stregen, da det blev mere omkostningseffektivt at bruge platforme med 100-Gigabit-porte i datacentret end at "stable" flere 10-Gigabit-platforme. Eksempel: Ciena 5170 (se figur 2) er en kompakt platform, der giver en samlet gennemstrømning på 800GbE (4x100GbE, 40x10GbE). Hvis der kræves flere 10-Gigabit-porte for at levere den nødvendige gennemstrømning, vil omkostningerne til yderligere hardware, ekstra plads, overskydende strømforbrug, løbende vedligeholdelse, ekstra reservedele og yderligere kølesystemer løbe op i en pæn sum. [1] For eksempel kom Hewlett Packard-specialister, der analyserede de potentielle fordele ved at gå fra 10GbE til 100GbE, frem til følgende tal: højere ydeevne (56%), lavere samlede omkostninger (27%), lavere strømforbrug (31%), forenkling kabelforbindelser (med 38%). [5]

100GbE: luksus eller væsentlig nødvendighed?
Figur 2. Ciena 5170: eksempel på platform med 100 Gigabit-porte

2) Juniper og Cisco har endelig skabt deres egne ASIC'er til 100GbE switches. [5] Hvilket er en veltalende bekræftelse af, at 100GbE-teknologien virkelig er moden. Faktum er, at det kun er omkostningseffektivt at oprette ASIC-chips, når for det første logikken implementeret på dem ikke kræver ændringer i en overskuelig fremtid, og for det andet, når et stort antal identiske chips fremstilles. Juniper og Cisco ville ikke producere disse ASIC'er uden at være sikre på modenheden på 100 GbE.

3) Fordi Broadcom, Cavium og Mellanox Technologie er begyndt at udskille processorer med 100GbE-understøttelse, og disse processorer bruges allerede i switches fra producenter som Dell, Hewlett Packard, Huawei Technologies, Lenovo Group osv. [5]

4) Fordi servere anbragt i serverracks i stigende grad er udstyret med de nyeste Intel-netværksadaptere (se figur 3), med to 25-Gigabit-porte og nogle gange endda konvergerede netværksadaptere med to 40-Gigabit-porte (XXV710 og XL710). {Figur 3. Seneste Intel NIC'er: XXV710 og XL710}

5) Fordi 100GbE-udstyr er bagudkompatibelt, hvilket forenkler implementeringen: du kan genbruge allerede routede kabler (bare tilslut en ny transceiver til dem).

Derudover forbereder tilgængeligheden af ​​100GbE os på nye teknologier såsom "NVMe over Fabrics" (for eksempel Samsung Evo Pro 256 GB NVMe PCIe SSD; se fig. 4) [8, 10], "Storage Area Network" (SAN ) / "Software Defined Storage" (se Fig. 5) [7], RDMA [11], som uden 100GbE ikke kunne realisere deres fulde potentiale.

100GbE: luksus eller væsentlig nødvendighed?
Figur 4. Samsung Evo Pro 256 GB NVMe PCIe SSD

100GbE: luksus eller væsentlig nødvendighed?
Figur 5. "Storage Area Network" (SAN) / "Software Defined Storage"

Endelig kan vi som et eksotisk eksempel på den praktiske efterspørgsel efter brugen af ​​100GbE og relaterede højhastighedsteknologier nævne den videnskabelige sky fra University of Cambridge (se fig. 6), som er bygget på basis af 100GbE (Spectrum) SN2700 Ethernet-switche) - for blandt andet at sikre effektiv drift af NexentaEdge SDS distribueret disklager, som nemt kan overbelaste et 10/40GbE netværk. [2] Sådanne højtydende videnskabelige skyer er indsat for at løse en lang række anvendte videnskabelige problemer [9, 12]. For eksempel bruger medicinske forskere sådanne skyer til at dechifrere det menneskelige genom, og 100GbE-kanaler bruges til at overføre information mellem universitetsforskningsgrupper.

100GbE: luksus eller væsentlig nødvendighed?
Figur 6. Fragment af University of Cambridge videnskabssky

bibliografi

  1. John Hawkins. 100GbE: Tættere på kanten, tættere på virkeligheden // 2017.
  2. Amit Katz. 100GbE switche – har du gjort matematikken? // 2016.
  3. Margaret Rose. 100 Gigabit Ethernet (100 GbE).
  4. David Graves. Dell EMC fordobler på 100 Gigabit Ethernet til det åbne, moderne datacenter // 2018.
  5. Mary Branscombe. Året for 100 GbE i datacenternetværk // 2018.
  6. Jarred Baker. Bevæg dig hurtigere i Enterprise Data Center // 2017.
  7. Tom Clark. Design af lagerområdenetværk: En praktisk reference til implementering af Fibre Channel og IP SAN'er. 2003. 572 s.
  8. James O'Reilly. Netværkslagring: Værktøjer og teknologier til lagring af din virksomheds data // 2017. 280p.
  9. James Sullivan. Student cluster konkurrence 2017, Team University of Texas ved Austin/Texas State University: Gengivelse af vektorisering af Tersoff multi-body potentialet på Intel Skylake og NVIDIA V100 arkitekturerne // Parallel Computing. v.79, 2018. s. 30-35.
  10. Manolis Katevenis. Den næste generation af systemer i Exascale-klassen: ExaNeSt-projektet // Mikroprocessorer og mikrosystemer. v.61, 2018. s. 58-71.
  11. Hari Subramoni. RDMA over Ethernet: A Preliminary Study // Proceedings of the Workshop on High Performance Interconnects for Distributed Computing. 2009.
  12. Chris Broekema. Energieffektive dataoverførsler i radioastronomi med software UDP RDMA // Fremtidige computersystemer. v.79, 2018. s. 215-224.

PS. Denne artikel blev oprindeligt udgivet i "Systemadministrator".

Kun registrerede brugere kan deltage i undersøgelsen. Log ind, Vær venlig.

Hvorfor begyndte store datacentre at flytte i massevis til 100 GbE?

  • Faktisk er der ingen, der er begyndt at flytte nogen steder endnu...

  • Fordi denne teknologi er modnet og blevet billigere

  • Fordi Juniper og Cisco skabte ASIC'er til 100GbE-switches

  • Fordi Broadcom, Cavium og Mellanox Technologie har tilføjet 100GbE-understøttelse

  • Fordi serverne nu har 25- og 40-gigabit-porte

  • Din version (skriv i kommentarerne)

12 brugere stemte. 15 brugere undlod at stemme.

Kilde: www.habr.com

Tilføj en kommentar