100GbE: luksus eller nødvendighet?

IEEE P802.3ba, en standard for overføring av data over 100 Gigabit Ethernet (100GbE), ble utviklet mellom 2007 og 2010 [3], men ble først utbredt i 2018 [5]. Hvorfor i 2018 og ikke tidligere? Og hvorfor umiddelbart i hopetall? Det er minst fem grunner til dette...

100GbE: luksus eller nødvendighet?

IEEE P802.3ba ble utviklet primært for å møte behovene til datasentre og behovene til utvekslingspunkter for Internett-trafikk (mellom uavhengige operatører); samt å sikre uavbrutt drift av ressurskrevende nettjenester, for eksempel portaler med en stor mengde videoinnhold (for eksempel YouTube); og for databehandling med høy ytelse. [3] Vanlige Internett-brukere bidrar også til endrede båndbreddekrav: Mange mennesker har digitalkameraer, og folk ønsker å streame innholdet de fanger over Internett. At. Volumet av innhold som sirkulerer på Internett blir større og større over tid. Både på profesjonelt og forbrukernivå. I alle disse tilfellene, når data overføres fra ett domene til et annet, har den totale gjennomstrømningen av nøkkelnettverksnoder lenge overskredet mulighetene til 10GbE-porter. [1] Dette er grunnen til fremveksten av en ny standard: 100GbE.

Store datasentre og skytjenesteleverandører bruker allerede aktivt 100GbE, og planlegger å gradvis gå over til 200GbE og 400GbE om et par år. Samtidig ser de allerede på hastigheter som overstiger terabit. [6] Selv om det er noen store leverandører som går over til 100GbE først i fjor (for eksempel Microsoft Azure). Datasentre som kjører høyytelses databehandling for finansielle tjenester, offentlige plattformer, olje- og gassplattformer og verktøy har også begynt å flytte til 100 GbE. [5]

I bedriftsdatasentre er etterspørselen etter båndbredde noe lavere: Først nylig har 10GbE blitt en nødvendighet i stedet for en luksus her. Men ettersom hastigheten på trafikkforbruket vokser stadig raskere, er det tvilsomt at 10GbE vil leve i bedriftsdatasentre i minst 10 eller til og med 5 år. I stedet vil vi se en rask overgang til 25GbE og en enda raskere overgang til 100GbE. [6] Fordi, som Intel-analytikere bemerker, øker trafikkintensiteten inne i datasenteret med 25 % årlig. [5]

Analytikere fra Dell og Hewlett Packard uttaler [4] at 2018 er året for 100 GbE for datasentre. Tilbake i august 2018 var leveransene av 100GbE-utstyr dobbelt så høye som leveransene for hele 2017-året. Og tempoet på forsendelser fortsetter å akselerere etter hvert som datasentre begynner å bevege seg bort fra 40 GbE i hopetall. Det er forventet at innen 2022 vil 19,4 millioner 100GbE-porter bli sendt årlig (i 2017, til sammenligning, var dette tallet 4,6 millioner). [4] Når det gjelder kostnader, ble det i 2017 brukt 100 milliarder dollar på 7GbE-porter, og i 2020 vil det ifølge prognoser bli brukt rundt 20 milliarder dollar (se fig. 1). [1]

100GbE: luksus eller nødvendighet?
Figur 1. Statistikk og prognoser for etterspørsel etter nettverksutstyr

Hvorfor nå? 100GbE er ikke akkurat en ny teknologi, så hvorfor er det så mye hype rundt det nå?

1) Fordi denne teknologien har modnet og blitt billigere. Det var i 2018 at vi gikk over grensen da bruk av plattformer med 100-Gigabit-porter i datasenteret ble mer kostnadseffektivt enn å «stable» flere 10-Gigabit-plattformer. Eksempel: Ciena 5170 (se figur 2) er en kompakt plattform som gir en samlet gjennomstrømning på 800GbE (4x100GbE, 40x10GbE). Hvis det kreves flere 10-Gigabit-porter for å gi nødvendig gjennomstrømning, utgjør kostnadene for ekstra maskinvare, ekstra plass, overflødig strømforbruk, løpende vedlikehold, ekstra reservedeler og ekstra kjølesystemer en ganske ryddig sum. [1] For eksempel kom Hewlett Packard-spesialister, som analyserte de potensielle fordelene ved å gå fra 10GbE til 100GbE, til følgende tall: høyere ytelse (56 %), lavere totale kostnader (27 %), lavere strømforbruk (31 %), forenkling kabeltilkoblinger (med 38%). [5]

100GbE: luksus eller nødvendighet?
Figur 2. Ciena 5170: eksempelplattform med 100 Gigabit-porter

2) Juniper og Cisco har endelig laget sine egne ASIC-er for 100GbE-svitsjer. [5] Noe som er en veltalende bekreftelse på at 100GbE-teknologi er virkelig moden. Faktum er at det er kostnadseffektivt å lage ASIC-brikker bare når for det første logikken implementert på dem ikke krever endringer i overskuelig fremtid, og for det andre når et stort antall identiske brikker produseres. Juniper og Cisco ville ikke produsere disse ASIC-ene uten å være sikre på en modenhet på 100 GbE.

3) Fordi Broadcom, Cavium og Mellanox Technologie har begynt å churne ut prosessorer med 100GbE-støtte, og disse prosessorene brukes allerede i switcher fra produsenter som Dell, Hewlett Packard, Huawei Technologies, Lenovo Group, etc. [5]

4) Fordi servere plassert i serverrack i økende grad er utstyrt med de nyeste Intel-nettverkskortene (se figur 3), med to 25-Gigabit-porter, og noen ganger til og med konvergerte nettverkskort med to 40-Gigabit-porter (XXV710 og XL710). {Figur 3. Siste Intel NIC-er: XXV710 og XL710}

5) Fordi 100GbE-utstyr er bakoverkompatibelt, noe som forenkler distribusjonen: du kan gjenbruke allerede rutede kabler (bare koble en ny transceiver til dem).

I tillegg forbereder tilgjengeligheten av 100GbE oss på nye teknologier som "NVMe over Fabrics" (for eksempel Samsung Evo Pro 256 GB NVMe PCIe SSD; se fig. 4) [8, 10], "Storage Area Network" (SAN) ) / “Software Defined Storage” (se fig. 5) [7], RDMA [11], som uten 100GbE ikke kunne realisere sitt fulle potensial.

100GbE: luksus eller nødvendighet?
Figur 4. Samsung Evo Pro 256 GB NVMe PCIe SSD

100GbE: luksus eller nødvendighet?
Figur 5. "Storage Area Network" (SAN) / "Software Defined Storage"

Til slutt, som et eksotisk eksempel på den praktiske etterspørselen etter bruk av 100GbE og relaterte høyhastighetsteknologier, kan vi sitere den vitenskapelige skyen til University of Cambridge (se fig. 6), som er bygget på grunnlag av 100GbE (Spectrum) SN2700 Ethernet-svitsjer) - for blant annet å sikre effektiv drift av NexentaEdge SDS-distribuert disklagring, som lett kan overbelaste et 10/40GbE-nettverk. [2] Slike høyytelses vitenskapelige skyer er utplassert for å løse en lang rekke anvendte vitenskapelige problemer [9, 12]. For eksempel bruker medisinske forskere slike skyer for å dechiffrere det menneskelige genomet, og 100GbE-kanaler brukes til å overføre informasjon mellom universitetsforskningsgrupper.

100GbE: luksus eller nødvendighet?
Figur 6. Fragment av vitenskapsskyen fra University of Cambridge

bibliografi

  1. John Hawkins. 100GbE: Nærmere kanten, nærmere virkeligheten // En.
  2. Amit Katz. 100GbE-svitsjer – Har du gjort matematikken? // En.
  3. Margaret Rose. 100 Gigabit Ethernet (100 GbE).
  4. David Graves. Dell EMC dobler ned på 100 Gigabit Ethernet for det åpne, moderne datasenteret // En.
  5. Mary Branscombe. Året med 100 GbE i datasenternettverk // En.
  6. Jarred Baker. Beveg deg raskere i Enterprise Data Center // En.
  7. Tom Clark. Designing av lagringsområdenettverk: en praktisk referanse for implementering av fiberkanal- og IP-SAN-er. 2003. 572 s.
  8. James O'Reilly. Nettverkslagring: Verktøy og teknologier for lagring av bedriftens data // 2017. 280p.
  9. James Sullivan. Studentklyngekonkurranse 2017, Team University of Texas ved Austin/Texas State University: Reproduserende vektorisering av Tersoff-multikroppspotensialet på Intel Skylake- og NVIDIA V100-arkitekturene // Parallel Computing. v.79, 2018. s. 30-35.
  10. Manolis Katevenis. Den neste generasjonen av systemer i Exascale-klassen: ExaNeSt-prosjektet // Mikroprosessorer og mikrosystemer. v.61, 2018. s. 58-71.
  11. Hari Subramoni. RDMA over Ethernet: A Preliminary Study // Proceedings of the Workshop on High Performance Interconnects for Distributed Computing. 2009.
  12. Chris Broekema. Energieffektive dataoverføringer i radioastronomi med programvare UDP RDMA // Fremtidig generasjons datasystemer. v.79, 2018. s. 215-224.

PS. Denne artikkelen ble opprinnelig publisert i "Systemadministrator".

Kun registrerte brukere kan delta i undersøkelsen. Logg inn, vær så snill.

Hvorfor begynte store datasentre å flytte masse til 100 GbE?

  • Faktisk har ingen begynt å flytte noe sted ennå...

  • Fordi denne teknologien har modnet og blitt billigere

  • Fordi Juniper og Cisco opprettet ASIC-er for 100GbE-svitsjer

  • Fordi Broadcom, Cavium og Mellanox Technologie har lagt til 100GbE-støtte

  • Fordi serverne nå har 25- og 40-gigabit-porter

  • Din versjon (skriv i kommentarfeltet)

12 brukere stemte. 15 brukere avsto.

Kilde: www.habr.com

Legg til en kommentar