100GbE: prabanga ar būtinybė?

IEEE P802.3ba, duomenų perdavimo per 100 Gigabit Ethernet (100 GbE) standartas, buvo sukurtas 2007–2010 m. [3], tačiau plačiai paplito tik 2018 m. [5]. Kodėl 2018 m., o ne anksčiau? Ir kodėl iškart būriais? Tam yra bent penkios priežastys...

100GbE: prabanga ar būtinybė?

IEEE P802.3ba buvo sukurtas pirmiausia siekiant patenkinti duomenų centrų ir interneto srauto mainų punktų poreikius (tarp nepriklausomų operatorių); taip pat užtikrinti nepertraukiamą daug resursų reikalaujančių interneto paslaugų, tokių kaip portalai su dideliu vaizdo turinio kiekiu (pavyzdžiui, YouTube) veikimą; ir didelio našumo kompiuteriams. [3] Paprasti interneto vartotojai taip pat prisideda prie kintančių pralaidumo reikalavimų: daugelis žmonių turi skaitmeninius fotoaparatus ir žmonės nori srautiniu būdu transliuoti užfiksuotą turinį internetu. Tai. Internete cirkuliuojančio turinio apimtis laikui bėgant tampa vis didesnė. Tiek profesionaliu, tiek vartotojų lygiu. Visais šiais atvejais, perduodant duomenis iš vieno domeno į kitą, bendras pagrindinių tinklo mazgų pralaidumas jau seniai viršijo 10GbE prievadų galimybes. [1] Dėl šios priežasties atsirado naujas standartas: 100GbE.

Didieji duomenų centrai ir debesų paslaugų teikėjai jau aktyviai naudoja 100 GbE, o po poros metų planuoja palaipsniui pereiti prie 200 GbE ir 400 GbE. Tuo pačiu metu jie jau žiūri į greitį, viršijantį terabitą. [6] Nors yra keletas didelių tiekėjų, kurie tik praėjusiais metais pereina prie 100 GbE (pavyzdžiui, Microsoft Azure). Duomenų centrai, kuriuose naudojami didelio našumo kompiuteriai, skirti finansinėms paslaugoms, vyriausybės platformoms, naftos ir dujų platformoms ir komunalinėms paslaugoms, taip pat pradėjo pereiti prie 100 GbE. [5]

Įmonių duomenų centruose pralaidumo poreikis yra kiek mažesnis: tik neseniai 10GbE čia tapo būtinybe, o ne prabanga. Tačiau vis sparčiau augant srauto suvartojimui, abejotina, ar 10GbE įmonių duomenų centruose gyvuos bent 10 ar net 5 metus. Vietoj to matysime greitą perėjimą prie 25 GbE ir dar greitesnį perėjimą prie 100 GbE. [6] Kadangi, kaip pažymi „Intel“ analitikai, srauto intensyvumas duomenų centre kasmet padidėja 25%. [5]

„Dell“ ir „Hewlett Packard“ analitikai teigia [4], kad 2018-ieji yra 100 GbE metai duomenų centrams. Dar 2018 m. rugpjūtį 100 GbE įrangos pristatymas buvo dvigubai didesnis nei per visus 2017 metus. Siuntimo tempas ir toliau spartėja, nes duomenų centrai pradeda tolti nuo 40 GbE. Numatoma, kad iki 2022 metų kasmet bus išplukdoma 19,4 mln. 100GbE uostų (2017 m., palyginimui, šis skaičius buvo 4,6 mln.). [4] Kalbant apie išlaidas, 2017 metais 100GbE prievadams buvo išleista 7 milijardai dolerių, o 2020 metais, remiantis prognozėmis, bus išleista apie 20 milijardų dolerių (žr. 1 pav.). [1]

100GbE: prabanga ar būtinybė?
1 pav. Tinklo įrangos paklausos statistika ir prognozės

Kodėl dabar? 100 GbE nėra visiškai nauja technologija, tad kodėl dabar apie ją tiek daug triukšmo?

1) Nes ši technologija subrendo ir atpigo. Būtent 2018 m. peržengėme ribą, kai duomenų centre naudoti platformas su 100 gigabitų prievadais tapo ekonomiškiau nei „sukrauti“ kelias 10 gigabitų platformas. Pavyzdys: Ciena 5170 (žr. 2 pav.) yra kompaktiška platforma, kuri užtikrina bendrą 800GbE (4x100GbE, 40x10GbE) pralaidumą. Jei reikiamam pralaidumui užtikrinti reikalingi keli 10 gigabitų prievadai, papildomos techninės įrangos, papildomos vietos, perteklinės energijos suvartojimo, nuolatinės priežiūros, papildomų atsarginių dalių ir papildomų aušinimo sistemų sąnaudos sudaro gana tvarkingą sumą. [1] Pavyzdžiui, Hewlett Packard specialistai, analizuodami galimą perėjimo nuo 10GbE prie 100GbE naudą, priėjo prie tokių skaičių: didesnis našumas (56%), mažesnės bendros išlaidos (27%), mažesnės energijos sąnaudos (31%), kabelių sujungimų supaprastinimas (38 proc.). [5]

100GbE: prabanga ar būtinybė?
2 pav. Ciena 5170: platformos pavyzdys su 100 Gigabitų prievadais

2) Juniper ir Cisco pagaliau sukūrė savo ASIC 100GbE jungikliams. [5] Tai iškalbingas patvirtinimas, kad 100GbE technologija yra tikrai subrendusi. Faktas yra tas, kad ASIC lustus ekonomiškai apsimoka kurti tik tada, kai, pirma, juose įdiegta logika nereikalauja pakeitimų artimiausioje ateityje, antra, kai pagaminama daug identiškų lustų. „Juniper“ ir „Cisco“ negamintų šių ASIC, jei nebūtų tikri dėl 100 GbE brandos.

3) Kadangi „Broadcom“, „Cavium“ ir „Mellanox Technologie“ pradėjo gaminti procesorius su 100 GbE palaikymu, o šie procesoriai jau naudojami tokių gamintojų kaip „Dell“, „Hewlett Packard“, „Huawei Technologies“, „Lenovo Group“ ir kt. [5].

4) Kadangi serverių stovuose esantys serveriai vis dažniau aprūpinami naujausiais „Intel“ tinklo adapteriais (žr. 3 pav.), su dviem 25 gigabitų prievadais, o kartais net sujungtais tinklo adapteriais su dviem 40 gigabitų prievadais (XXV710 ir XL710). {3 pav. Naujausi Intel NIC: XXV710 ir XL710}

5) Kadangi 100GbE įranga yra suderinama atgal, o tai supaprastina diegimą: galite pakartotinai naudoti jau nuvestus laidus (tiesiog prijunkite prie jų naują siųstuvą-imtuvą).

Be to, 100 GbE prieinamumas paruošia mus naujoms technologijoms, tokioms kaip „NVMe over Fabrics“ (pavyzdžiui, „Samsung Evo Pro 256 GB NVMe PCIe SSD“; žr. 4 pav.) [8, 10], „Storage Area Network“ (SAN) ) / „Software Defined Storage“ (žr. 5 pav.) [7], RDMA [11], kurios be 100GbE negalėtų realizuoti viso savo potencialo.

100GbE: prabanga ar būtinybė?
4 pav. Samsung Evo Pro 256 GB NVMe PCIe SSD

100GbE: prabanga ar būtinybė?
5 pav. „Saugyklos tinklas“ (SAN) / „Programinės įrangos nustatyta saugykla“

Galiausiai, kaip egzotišką praktinio 100GbE ir susijusių didelės spartos technologijų naudojimo paklausos pavyzdį, galime paminėti Kembridžo universiteto mokslinį debesį (žr. 6 pav.), kuris yra sukurtas 100GbE (Spectrum) pagrindu. SN2700 Ethernet komutatoriai) - siekiant, be kita ko, užtikrinti efektyvų NexentaEdge SDS paskirstytos diskų saugyklos veikimą, kuri gali lengvai perkrauti 10/40GbE tinklą. [2] Tokie didelio našumo moksliniai debesys yra naudojami sprendžiant daugybę taikomųjų mokslo problemų [9, 12]. Pavyzdžiui, medicinos mokslininkai tokius debesis naudoja žmogaus genomui iššifruoti, o 100GbE kanalai perduodami informacijai tarp universitetų tyrimų grupių.

100GbE: prabanga ar būtinybė?
6 pav. Kembridžo universiteto mokslo debesies fragmentas

Bibliografija

  1. Johnas Hawkinsas. 100 GbE: arčiau krašto, arčiau realybės // vienas.
  2. Amitas Katzas. 100 GbE jungikliai – ar atlikote matematiką? // vienas.
  3. Margaret Rose. 100 Gigabit Ethernet (100 GbE).
  4. Davidas Gravesas. „Dell EMC“ dvigubai sumažina 100 gigabitų eterneto ryšį atviram moderniam duomenų centrui // vienas.
  5. Mary Branscombe. 100 GbE metai duomenų centrų tinkluose // vienas.
  6. Jarredas Bakeris. Greitesnis judėjimas įmonės duomenų centre // vienas.
  7. Tomas Klarkas. Saugojimo zonos tinklų projektavimas: praktinė žinynas diegiant šviesolaidinį kanalą ir IP SAN. 2003. 572p.
  8. Jamesas O'Reilly. Tinklo saugykla: Jūsų įmonės duomenų saugojimo įrankiai ir technologijos // 2017. 280psl.
  9. Jamesas Sullivanas. Studentų grupių konkursas 2017 m., Teksaso komandos universitetas Ostine / Teksaso valstijos universitetas: Tersoff kelių korpusų potencialo vektorizacijos atkūrimas Intel Skylake ir NVIDIA V100 architektūrose // Lygiagretusis skaičiavimas. v.79, 2018. p. 30-35.
  10. Manolis Katevenis. Kita Exascale klasės sistemų karta: ExaNeSt projektas // Mikroprocesoriai ir mikrosistemos. v.61, 2018. p. 58-71.
  11. Hari Subramoni. RDMA per Ethernet: preliminarus tyrimas // Didelio našumo paskirstytojo skaičiavimo jungčių seminaro medžiaga. 2009 m.
  12. Chrisas Broekema. Energiją taupantis duomenų perdavimas radijo astronomijoje naudojant programinę įrangą UDP RDMA // Ateities kartos kompiuterių sistemos. v.79, 2018. p. 215-224.

PS. Šis straipsnis iš pradžių buvo paskelbtas m "Sistemos administratorius".

Apklausoje gali dalyvauti tik registruoti vartotojai. Prisijungti, Prašau.

Kodėl dideli duomenų centrai pradėjo masiškai pereiti prie 100 GbE?

  • Tiesą sakant, niekas dar niekur nepradėjo kraustytis...

  • Nes ši technologija subrendo ir atpigo

  • Nes Juniper ir Cisco sukūrė ASIC 100GbE jungikliams

  • Kadangi „Broadcom“, „Cavium“ ir „Mellanox Technologie“ pridėjo 100 GbE palaikymą

  • Kadangi dabar serveriai turi 25 ir 40 gigabitų prievadus

  • Jūsų versija (rašykite komentaruose)

Balsavo 12 vartotojų. 15 vartotojai susilaikė.

Šaltinis: www.habr.com

Добавить комментарий