100GbE: lyx eller nödvändighet?

IEEE P802.3ba, en standard för överföring av data över 100 Gigabit Ethernet (100GbE), utvecklades mellan 2007 och 2010 [3], men blev utbredd först 2018 [5]. Varför 2018 och inte tidigare? Och varför omedelbart i massor? Det finns minst fem anledningar till detta...

100GbE: lyx eller nödvändighet?

IEEE P802.3ba utvecklades i första hand för att möta behoven hos datacenter och behoven hos utbytespunkter för internettrafik (mellan oberoende operatörer); samt att säkerställa oavbruten drift av resurskrävande webbtjänster, såsom portaler med en stor mängd videoinnehåll (till exempel YouTube); och för högpresterande datoranvändning. [3] Vanliga Internetanvändare bidrar också till ändrade bandbreddskrav: Många människor har digitalkameror och människor vill strömma innehållet de fångar över Internet. Den där. Volymen innehåll som cirkulerar på Internet blir större och större med tiden. Både på professionell nivå och konsumentnivå. I alla dessa fall, när data överförs från en domän till en annan, har den totala genomströmningen av viktiga nätverksnoder länge överskridit kapaciteten hos 10 GbE-portar. [1] Detta är anledningen till uppkomsten av en ny standard: 100GbE.

Stora datacenter och molntjänstleverantörer använder redan aktivt 100GbE och planerar att gradvis gå över till 200GbE och 400GbE om ett par år. Samtidigt tittar de redan på hastigheter som överstiger terabit. [6] Även om det finns några stora leverantörer som flyttar till 100GbE först förra året (till exempel Microsoft Azure). Datacenter som kör högpresterande beräkningar för finansiella tjänster, statliga plattformar, olje- och gasplattformar och verktyg har också börjat flytta till 100 GbE. [5]

I företagsdatacenter är efterfrågan på bandbredd något lägre: först nyligen har 10GbE blivit en nödvändighet snarare än en lyx här. Men eftersom trafikkonsumtionen ökar allt snabbare är det tveksamt att 10GbE kommer att leva i företagsdatacenter i minst 10 eller till och med 5 år. Istället kommer vi att se en snabb övergång till 25 GbE och en ännu snabbare övergång till 100 GbE. [6] Eftersom, som Intel-analytiker noterar, ökar trafikintensiteten inuti datacentret årligen med 25 %. [5]

Analytiker från Dell och Hewlett Packard konstaterar [4] att 2018 är året för 100 GbE för datacenter. Redan i augusti 2018 var leveranserna av 100GbE-utrustning dubbelt så höga som leveranserna för hela 2017. Och leveranstakten fortsätter att accelerera när datacenter börjar flytta från 40 GbE i massor. Det förväntas att år 2022 kommer 19,4 miljoner 100GbE-portar att levereras årligen (2017, som jämförelse, var denna siffra 4,6 miljoner). [4] När det gäller kostnader spenderades 2017 100 miljarder dollar på 7GbE-portar, och 2020, enligt prognoser, kommer omkring 20 miljarder dollar att spenderas (se fig. 1). [1]

100GbE: lyx eller nödvändighet?
Figur 1. Statistik och prognoser över efterfrågan på nätverksutrustning

Varför nu? 100GbE är inte precis en ny teknik, så varför är det så mycket hype kring det nu?

1) För att denna teknik har mognat och blivit billigare. Det var 2018 som vi gick över gränsen när det blev mer kostnadseffektivt att använda plattformar med 100-Gigabit-portar i datacentret än att "stacka" flera 10-Gigabit-plattformar. Exempel: Ciena 5170 (se figur 2) är en kompakt plattform som ger en sammanlagd genomströmning på 800GbE (4x100GbE, 40x10GbE). Om flera 10-Gigabit-portar krävs för att ge den nödvändiga genomströmningen, blir kostnaderna för ytterligare hårdvara, extra utrymme, överdriven strömförbrukning, löpande underhåll, ytterligare reservdelar och ytterligare kylsystem en ganska rejäl summa. [1] Till exempel, Hewlett Packard-specialister, som analyserade de potentiella fördelarna med att gå från 10GbE till 100GbE, kom fram till följande siffror: högre prestanda (56%), lägre totala kostnader (27%), lägre strömförbrukning (31%), förenkling av kabelanslutningar (med 38%). [5]

100GbE: lyx eller nödvändighet?
Figur 2. Ciena 5170: exempel på plattform med 100 Gigabit-portar

2) Juniper och Cisco har äntligen skapat sina egna ASIC:er för 100GbE-switchar. [5] Vilket är en vältalig bekräftelse på att 100GbE-tekniken verkligen är mogen. Faktum är att det är kostnadseffektivt att skapa ASIC-chips endast när, för det första, logiken som implementeras på dem inte kräver förändringar inom överskådlig framtid, och för det andra när ett stort antal identiska chips tillverkas. Juniper och Cisco skulle inte producera dessa ASIC:er utan att vara säkra på en mognad på 100 GbE.

3) För att Broadcom, Cavium och Mellanox Technologie har börjat churna ut processorer med 100GbE-stöd, och dessa processorer används redan i switchar från tillverkare som Dell, Hewlett Packard, Huawei Technologies, Lenovo Group, etc. [5]

4) Eftersom servrar inrymda i serverrack i allt högre grad är utrustade med de senaste Intel-nätverksadaptrarna (se figur 3), med två 25-Gigabit-portar, och ibland även konvergerade nätverkskort med två 40-Gigabit-portar (XXV710 och XL710). {Figur 3. Senaste Intel NIC: XXV710 och XL710}

5) Eftersom 100GbE-utrustning är bakåtkompatibel, vilket förenklar driftsättningen: du kan återanvända redan dragna kablar (anslut bara en ny transceiver till dem).

Dessutom förbereder tillgången på 100GbE oss för ny teknik som "NVMe over Fabrics" (till exempel Samsung Evo Pro 256 GB NVMe PCIe SSD; se fig. 4) [8, 10], "Storage Area Network" (SAN) ) / “Software Defined Storage” (se Fig. 5) [7], RDMA [11], som utan 100GbE inte kunde realisera sin fulla potential.

100GbE: lyx eller nödvändighet?
Figur 4. Samsung Evo Pro 256 GB NVMe PCIe SSD

100GbE: lyx eller nödvändighet?
Figur 5. "Storage Area Network" (SAN) / "Software Defined Storage"

Slutligen, som ett exotiskt exempel på den praktiska efterfrågan på användningen av 100GbE och relaterade höghastighetsteknologier, kan vi nämna det vetenskapliga molnet vid University of Cambridge (se fig. 6), som är byggt på 100GbE (Spectrum) SN2700 Ethernet-switchar) - för att bland annat säkerställa effektiv drift av NexentaEdge SDS distribuerad disklagring, som lätt kan överbelasta ett 10/40GbE-nätverk. [2] Sådana högpresterande vetenskapliga moln används för att lösa en mängd olika tillämpade vetenskapliga problem [9, 12]. Till exempel använder medicinska forskare sådana moln för att dechiffrera det mänskliga genomet, och 100GbE-kanaler används för att överföra information mellan universitetsforskningsgrupper.

100GbE: lyx eller nödvändighet?
Figur 6. Fragment av University of Cambridge vetenskapsmoln

bibliografi

  1. John Hawkins. 100GbE: Närmare kanten, närmare verkligheten // ett.
  2. Amit Katz. 100GbE-switchar – har du gjort matematiken? // ett.
  3. Margaret Rose. 100 Gigabit Ethernet (100 GbE).
  4. David Graves. Dell EMC fördubblar 100 Gigabit Ethernet för det öppna, moderna datacentret // ett.
  5. Mary Branscombe. Året för 100 GbE i datacenternätverk // ett.
  6. Jarred Baker. Rör dig snabbare i Enterprise Data Center // ett.
  7. Tom Clark. Designa Storage Area Networks: En praktisk referens för implementering av Fibre Channel och IP SAN. 2003. 572 s.
  8. James O'Reilly. Nätverkslagring: Verktyg och teknik för att lagra ditt företags data // 2017. 280p.
  9. James Sullivan. Studentklustertävling 2017, Team University of Texas vid Austin/Texas State University: Reproducering av vektorisering av Tersoff multi-body potential på Intel Skylake och NVIDIA V100 arkitekturer // Parallel Computing. v.79, 2018. s. 30-35.
  10. Manolis Katevenis. Nästa generation av Exascale-klasssystem: ExaNeSt-projektet // Mikroprocessorer och mikrosystem. v.61, 2018. s. 58-71.
  11. Hari Subramoni. RDMA över Ethernet: En preliminär studie // Proceedings of the Workshop on High Performance Interconnects for Distributed Computing. 2009.
  12. Chris Broekema. Energieffektiva dataöverföringar inom radioastronomi med programvara UDP RDMA // Framtida generations datorsystem. v.79, 2018. s. 215-224.

PS. Denna artikel publicerades ursprungligen i "Systemadministratör".

Endast registrerade användare kan delta i undersökningen. Logga in, Snälla du.

Varför började stora datacenter att flytta på massa till 100 GbE?

  • Egentligen har ingen börjat flytta någonstans än...

  • För den här tekniken har mognat och blivit billigare

  • Eftersom Juniper och Cisco skapade ASICs för 100GbE-switchar

  • Eftersom Broadcom, Cavium och Mellanox Technologie har lagt till 100GbE-stöd

  • Eftersom servrarna nu har 25- och 40-gigabit-portar

  • Din version (skriv i kommentarerna)

12 användare röstade. 15 användare avstod från att rösta.

Källa: will.com

Lägg en kommentar