100GbE: luxe of essentiële noodzaak?

IEEE P802.3ba, een standaard voor het verzenden van gegevens over 100 Gigabit Ethernet (100GbE), werd ontwikkeld tussen 2007 en 2010 [3], maar werd pas wijdverspreid in 2018 [5]. Waarom in 2018 en niet eerder? En waarom meteen massaal? Daar zijn minstens vijf redenen voor...

100GbE: luxe of essentiële noodzaak?

IEEE P802.3ba is in de eerste plaats ontwikkeld om te voldoen aan de behoeften van datacentra en de behoeften van uitwisselingspunten voor internetverkeer (tussen onafhankelijke operators); en om de ononderbroken werking van resource-intensieve webdiensten te garanderen, zoals portalen met een grote hoeveelheid video-inhoud (bijvoorbeeld YouTube); en voor high-performance computing. [3] Gewone internetgebruikers dragen ook bij aan de veranderende vraag naar bandbreedte: veel mensen hebben digitale camera's en mensen willen de inhoud die ze vastleggen via internet streamen. Dat. De hoeveelheid inhoud die op internet circuleert, wordt in de loop van de tijd steeds groter. Zowel op professioneel als op consumentenniveau. In al deze gevallen heeft bij het overbrengen van gegevens van het ene domein naar het andere de totale doorvoer van belangrijke netwerkknooppunten de mogelijkheden van 10GbE-poorten al lang overschreden. [1] Dit is de reden voor de opkomst van een nieuwe standaard: 100GbE.

Grote datacenters en cloudserviceproviders maken al actief gebruik van 100GbE en zijn van plan om over een paar jaar geleidelijk over te stappen naar 200GbE en 400GbE. Tegelijkertijd kijken ze al naar snelheden van meer dan terabit. [6] Hoewel er enkele grote leveranciers zijn die pas vorig jaar overstappen op 100GbE (bijvoorbeeld Microsoft Azure). Datacentra met high-performance computing voor financiële diensten, overheidsplatforms, olie- en gasplatforms en nutsbedrijven zijn ook begonnen over te stappen op 100GbE. [5]

In enterprise datacenters is de vraag naar bandbreedte iets lager: pas sinds kort is 10GbE hier eerder een noodzaak dan een luxe geworden. Nu het verkeersverbruik steeds sneller groeit, is het echter twijfelachtig of 10GbE nog minstens tien of zelfs vijf jaar in bedrijfsdatacenters zal blijven bestaan. In plaats daarvan zullen we een snelle overstap naar 10GbE zien, en een nog snellere overstap naar 5GbE. [25] Omdat, zoals Intel-analisten opmerken, de intensiteit van het verkeer binnen het datacenter jaarlijks met 100% toeneemt. [6]

Analisten van Dell en Hewlett Packard stellen [4] dat 2018 het jaar is van 100GbE voor datacenters. In augustus 2018 waren de leveringen van 100GbE-apparatuur twee keer zo hoog als de leveringen over het hele jaar 2017. En het tempo van de verzendingen blijft toenemen nu datacenters massaal beginnen af ​​te stappen van 40GbE. Verwacht wordt dat in 2022 jaarlijks 19,4 miljoen 100GbE-poorten zullen worden verzonden (in 2017 was dit ter vergelijking 4,6 miljoen). [4] Wat de kosten betreft: in 2017 werd 100 miljard dollar uitgegeven aan 7GbE-poorten, en in 2020 zal er volgens voorspellingen ongeveer 20 miljard dollar worden uitgegeven (zie figuur 1). [1]

100GbE: luxe of essentiële noodzaak?
Figuur 1. Statistieken en prognoses van de vraag naar netwerkapparatuur

Waarom nu? 100GbE is niet bepaald een nieuwe technologie, dus waarom is er nu zoveel hype omheen?

1) Omdat deze technologie volwassener en goedkoper is geworden. In 2018 overschreden we de grens toen het gebruik van platforms met 100 Gigabit-poorten in het datacenter kosteneffectiever werd dan het “stapelen” van verschillende 10 Gigabit-platforms. Voorbeeld: Ciena 5170 (zie afbeelding 2) is een compact platform dat een totale doorvoercapaciteit van 800GbE (4x100GbE, 40x10GbE) biedt. Als er meerdere 10-Gigabit-poorten nodig zijn om de noodzakelijke doorvoer te leveren, dan vormen de kosten van extra hardware, extra ruimte, overmatig energieverbruik, doorlopend onderhoud, extra reserveonderdelen en extra koelsystemen een behoorlijk bedrag. [1] Specialisten van Hewlett Packard analyseerden bijvoorbeeld de potentiële voordelen van de overstap van 10GbE naar 100GbE en kwamen tot de volgende cijfers: hogere prestaties (56%), lagere totale kosten (27%), lager energieverbruik (31%), vereenvoudiging van de kabelaansluitingen (met 38%). [5]

100GbE: luxe of essentiële noodzaak?
Figuur 2. Ciena 5170: voorbeeldplatform met 100 Gigabit-poorten

2) Juniper en Cisco hebben eindelijk hun eigen ASIC's voor 100GbE-switches gemaakt. [5] Dit is een welsprekende bevestiging van het feit dat de 100GbE-technologie echt volwassen is. Feit is dat het alleen kosteneffectief is om ASIC-chips te maken als, ten eerste, de daarop geïmplementeerde logica geen veranderingen in de nabije toekomst vereist, en ten tweede, als er een groot aantal identieke chips wordt vervaardigd. Juniper en Cisco zouden deze ASIC's niet produceren zonder vertrouwen te hebben in de volwassenheid van 100GbE.

3) Omdat Broadcom, Cavium en Mellanox Technologie zijn begonnen met het produceren van processors met 100GbE-ondersteuning, en deze processors al worden gebruikt in switches van fabrikanten als Dell, Hewlett Packard, Huawei Technologies, Lenovo Group, enz. [5]

4) Omdat servers in serverracks steeds vaker worden uitgerust met de nieuwste Intel-netwerkadapters (zie figuur 3), met twee 25 Gigabit-poorten, en soms zelfs geconvergeerde netwerkadapters met twee 40 Gigabit-poorten (XXV710 en XL710). {Figuur 3. Nieuwste Intel NIC's: XXV710 en XL710}

5) Omdat 100GbE-apparatuur achterwaarts compatibel is, wat de implementatie vereenvoudigt: u kunt reeds aangelegde kabels hergebruiken (sluit er gewoon een nieuwe transceiver op aan).

Bovendien bereidt de beschikbaarheid van 100GbE ons voor op nieuwe technologieën zoals “NVMe over Fabrics” (bijvoorbeeld Samsung Evo Pro 256 GB NVMe PCIe SSD; zie figuur 4) [8, 10], “Storage Area Network” (SAN ) / “Software Defined Storage” (zie figuur 5) [7], RDMA [11], die zonder 100GbE hun volledige potentieel niet zouden kunnen realiseren.

100GbE: luxe of essentiële noodzaak?
Figuur 4. Samsung Evo Pro 256 GB NVMe PCIe SSD

100GbE: luxe of essentiële noodzaak?
Figuur 5. “Storage Area Network” (SAN) / “Software Defined Storage”

Tenslotte kunnen we als exotisch voorbeeld van de praktische vraag naar het gebruik van 100GbE en aanverwante hogesnelheidstechnologieën de wetenschappelijke cloud van de Universiteit van Cambridge aanhalen (zie figuur 6), die is gebouwd op basis van 100GbE (Spectrum SN2700 Ethernet-switches) - om onder andere een efficiënte werking van NexentaEdge SDS gedistribueerde schijfopslag te garanderen, die een 10/40GbE-netwerk gemakkelijk kan overbelasten. [2] Dergelijke hoogwaardige wetenschappelijke clouds worden ingezet om een ​​breed scala aan toegepaste wetenschappelijke problemen op te lossen [9, 12]. Medische wetenschappers gebruiken dergelijke wolken bijvoorbeeld om het menselijk genoom te ontcijferen, en 100GbE-kanalen worden gebruikt om informatie tussen universitaire onderzoeksgroepen over te dragen.

100GbE: luxe of essentiële noodzaak?
Figuur 6. Fragment van de wetenschapswolk van de Universiteit van Cambridge

Bibliografie

  1. John Hawkins. 100GbE: dichter bij de rand, dichter bij de realiteit // een.
  2. Amit Katz. 100GbE-switches – Heeft u het rekenwerk gedaan? // een.
  3. Margaretha Roos. 100 Gigabit Ethernet (100GbE).
  4. David Graven. Dell EMC verdubbelt de inzet van 100 Gigabit Ethernet voor het open, moderne datacenter // een.
  5. Maria Branscombe. Het jaar van 100GbE in datacenternetwerken // een.
  6. Jarred Bakker. Sneller bewegen in het Enterprise Data Center // een.
  7. Tom Clark. Storage Area Networks ontwerpen: een praktische referentie voor het implementeren van Fibre Channel- en IP-SAN's. 2003. 572p.
  8. James O'Reilly. Netwerkopslag: tools en technologieën voor het opslaan van de gegevens van uw bedrijf // 2017. 280p.
  9. James Sullivan. Studentenclustercompetitie 2017, Team University of Texas aan de Austin/Texas State University: Reproductie van vectorisatie van het Tersoff multi-body-potentieel op de Intel Skylake- en NVIDIA V100-architecturen // Parallel Computing. v.79, 2018. blz. 30-35.
  10. Manolis Katevenis. De volgende generatie systemen van Exascale-klasse: het ExaNeSt-project // Microprocessors en microsystemen. v.61, 2018. blz. 58-71.
  11. Hari Subramoni. RDMA over Ethernet: een voorbereidende studie // Proceedings of the Workshop on High Performance Interconnects for Distributed Computing. 2009.
  12. Chris Broekema. Energie-efficiënte gegevensoverdracht in de radioastronomie met software UDP RDMA // Computersystemen van de toekomstige generatie. v.79, 2018. blz. 215-224.

PS. Dit artikel is oorspronkelijk gepubliceerd in "Systeem administrator".

Alleen geregistreerde gebruikers kunnen deelnemen aan het onderzoek. Inloggen, Alsjeblieft.

Waarom begonnen grote datacenters massaal over te stappen op 100GbE?

  • Eigenlijk is er nog niemand begonnen met verhuizen...

  • Omdat deze technologie volwassener en goedkoper is geworden

  • Omdat Juniper en Cisco ASIC's hebben gemaakt voor 100GbE-switches

  • Omdat Broadcom, Cavium en Mellanox Technologie 100GbE-ondersteuning hebben toegevoegd

  • Omdat de servers nu 25- en 40 gigabit-poorten hebben

  • Jouw versie (schrijf in de reacties)

12 gebruikers hebben gestemd. 15 gebruikers onthielden zich van stemming.

Bron: www.habr.com

Voeg een reactie