100GbE: luksuz ili neophodna potreba?

IEEE P802.3ba, standard za prijenos podataka preko 100 Gigabit Etherneta (100GbE), razvijen je između 2007. i 2010. [3], ali je postao široko rasprostranjen tek 2018. [5]. Zašto 2018. godine, a ne ranije? I zašto odmah u gomilama? Postoji najmanje pet razloga za to...

100GbE: luksuz ili neophodna potreba?

IEEE P802.3ba prvenstveno je razvijen za potrebe podatkovnih centara i potreba točaka razmjene internetskog prometa (između neovisnih operatera); kao i osigurati nesmetan rad resursno intenzivnih web servisa, kao što su portali s velikom količinom videosadržaja (primjerice, YouTube); i za računalstvo visokih performansi. [3] Obični korisnici interneta također pridonose promjeni zahtjeva za širinom pojasa: mnogi ljudi imaju digitalne kamere i ljudi žele prenositi sadržaj koji su snimili preko interneta. Da. Količina sadržaja koji kruži internetom s vremenom postaje sve veća i veća. I na profesionalnoj i na potrošačkoj razini. U svim tim slučajevima, pri prijenosu podataka s jedne domene na drugu, ukupna propusnost ključnih mrežnih čvorova odavno je premašila mogućnosti 10GbE portova. [1] To je razlog za pojavu novog standarda: 100GbE.

Veliki podatkovni centri i pružatelji usluga u oblaku već aktivno koriste 100GbE i planiraju postupno prijeći na 200GbE i 400GbE za nekoliko godina. Istodobno, već gledaju na brzine veće od terabita. [6] Iako postoje neki veliki dobavljači koji su tek prošle godine prešli na 100GbE (na primjer, Microsoft Azure). Podatkovni centri koji pokreću računalstvo visokih performansi za financijske usluge, vladine platforme, naftne i plinske platforme i komunalne usluge također su počeli prelaziti na 100GbE. [5]

U podatkovnim centrima poduzeća potražnja za propusnošću nešto je manja: tek je nedavno 10GbE ovdje postalo nužnost, a ne luksuz. Međutim, kako stopa potrošnje prometa raste sve brže i brže, sumnja se da će 10GbE živjeti u podatkovnim centrima poduzeća barem 10 ili čak 5 godina. Umjesto toga, vidjet ćemo brzi prelazak na 25GbE i još brži prelazak na 100GbE. [6] Jer, kako primjećuju Intelovi analitičari, intenzitet prometa unutar podatkovnog centra raste godišnje za 25%. [5]

Analitičari iz Della i Hewlett Packarda navode [4] da je 2018. godina 100GbE za podatkovne centre. Još u kolovozu 2018. godine isporuke 100GbE opreme bile su dvostruko veće od isporuka za cijelu 2017. godinu. A tempo isporuka nastavlja se ubrzavati kako se podatkovni centri masovno počinju udaljavati od 40GbE. Očekuje se da će se do 2022. godišnje isporučivati ​​19,4 milijuna 100GbE priključaka (u 2017., za usporedbu, ta je brojka iznosila 4,6 milijuna). [4] Što se tiče troškova, 2017. godine 100 milijardi dolara potrošeno je na 7GbE priključke, a 2020. godine, prema predviđanjima, bit će potrošeno oko 20 milijardi dolara (vidi sliku 1). [1]

100GbE: luksuz ili neophodna potreba?
Slika 1. Statistika i predviđanja potražnje za mrežnom opremom

Zašto sada? 100GbE nije baš nova tehnologija, pa zašto se oko nje sada toliko pompe?

1) Zato što je ova tehnologija sazrela i postala jeftinija. U 2018. smo prešli granicu kada je korištenje platformi sa 100-gigabitnim priključcima u podatkovnom centru postalo isplativije od "slaganja" nekoliko 10-gigabitnih platformi. Primjer: Ciena 5170 (vidi sliku 2) je kompaktna platforma koja pruža ukupnu propusnost od 800GbE (4x100GbE, 40x10GbE). Ako je potrebno više 10-gigabitnih priključaka za pružanje potrebne propusnosti, tada se troškovi dodatnog hardvera, dodatnog prostora, prekomjerne potrošnje energije, tekućeg održavanja, dodatnih rezervnih dijelova i dodatnih sustava hlađenja zbrajaju u prilično urednu svotu. [1] Na primjer, stručnjaci Hewlett Packarda, analizirajući potencijalne prednosti prelaska s 10GbE na 100GbE, došli su do sljedećih brojki: veća izvedba (56%), manji ukupni troškovi (27%), niža potrošnja energije (31%), pojednostavljenje kabelskih veza (za 38%). [5]

100GbE: luksuz ili neophodna potreba?
Slika 2. Ciena 5170: primjer platforme sa 100 Gigabitnim portovima

2) Juniper i Cisco su konačno stvorili vlastite ASIC-ove za 100GbE preklopnike. [5] Što je rječita potvrda činjenice da je 100GbE tehnologija doista zrela. Činjenica je da je isplativo stvarati ASIC čipove samo kada, prvo, logika implementirana na njima ne zahtijeva promjene u doglednoj budućnosti, i drugo, kada se proizvodi veliki broj identičnih čipova. Juniper i Cisco ne bi proizveli ove ASIC-ove bez uvjerenja u zrelost 100GbE.

3) Zato što su Broadcom, Cavium i Mellanox Technologie počeli proizvoditi procesore s podrškom za 100GbE, a ti se procesori već koriste u preklopnicima proizvođača kao što su Dell, Hewlett Packard, Huawei Technologies, Lenovo Group itd. [5]

4) Budući da su poslužitelji smješteni u poslužiteljskim policama sve više opremljeni najnovijim Intelovim mrežnim adapterima (vidi sliku 3), s dva 25-gigabitna priključka, a ponekad čak i konvergentnim mrežnim adapterima s dva 40-gigabitna priključka (XXV710 i XL710). {Slika 3. Najnoviji Intelovi NIC-ovi: XXV710 i XL710}

5) Budući da je 100GbE oprema kompatibilna s prethodnim verzijama, što pojednostavljuje implementaciju: možete ponovno koristiti već postavljene kabele (samo na njih spojite novi primopredajnik).

Osim toga, dostupnost 100GbE priprema nas za nove tehnologije kao što su "NVMe preko Fabrics" (na primjer, Samsung Evo Pro 256 GB NVMe PCIe SSD; vidi sliku 4) [8, 10], "Storage Area Network" (SAN ) / “Software Defined Storage” (vidi sl. 5) [7], RDMA [11], koji bez 100GbE ne bi mogli ostvariti svoj puni potencijal.

100GbE: luksuz ili neophodna potreba?
Slika 4. Samsung Evo Pro 256 GB NVMe PCIe SSD

100GbE: luksuz ili neophodna potreba?
Slika 5. “Mreža područja pohrane” (SAN) / “Softverski definirana pohrana”

Na kraju, kao egzotičan primjer praktične potražnje za korištenjem 100GbE i srodnih tehnologija velike brzine, možemo navesti znanstveni oblak Sveučilišta u Cambridgeu (vidi sl. 6), koji je izgrađen na temelju 100GbE (Spectrum SN2700 Ethernet preklopnici) - kako bi se, između ostalog, osigurao učinkovit rad NexentaEdge SDS distribuirane diskovne pohrane, koja može lako preopteretiti 10/40GbE mrežu. [2] Takvi znanstveni oblaci visokih performansi koriste se za rješavanje širokog spektra primijenjenih znanstvenih problema [9, 12]. Na primjer, medicinski znanstvenici koriste takve oblake za dešifriranje ljudskog genoma, a 100GbE kanali koriste se za prijenos informacija između sveučilišnih istraživačkih grupa.

100GbE: luksuz ili neophodna potreba?
Slika 6. Fragment znanstvenog oblaka Sveučilišta u Cambridgeu

bibliografija

  1. John Hawkins. 100GbE: Bliže rubu, bliže stvarnosti // 2017.
  2. Amit Katz. 100GbE sklopke – jeste li izračunali? // 2016.
  3. Margaret Rose. 100 Gigabit Ethernet (100GbE).
  4. David Graves. Dell EMC udvostručuje 100 Gigabit Ethernet za otvoreni, moderni podatkovni centar // 2018.
  5. Mary Branscombe. Godina 100GbE u mrežama podatkovnih centara // 2018.
  6. Jarred Baker. Brže kretanje u podatkovnom centru poduzeća // 2017.
  7. Tom Clark. Projektiranje mreža područja pohrane: praktična referenca za implementaciju Fibre Channel i IP SAN-ova. 2003. 572 str.
  8. James O'Reilly. Mrežna pohrana: Alati i tehnologije za pohranjivanje podataka vaše tvrtke // 2017. 280str.
  9. James Sullivan. Studentsko klastersko natjecanje 2017., Tim Sveučilišta Teksas u Austinu/Texas State University: Reproduciranje vektorizacije Tersoffovog potencijala više tijela na arhitekturama Intel Skylake i NVIDIA V100 // Paralelno računalstvo. v.79, 2018. str. 30-35 (prikaz, stručni).
  10. Manolis Katevenis. Sljedeća generacija sustava klase Exascale: projekt ExaNeSt // Mikroprocesori i mikrosustavi. v.61, 2018. str. 58-71 (prikaz, ostalo).
  11. Hari Subramoni. RDMA preko Etherneta: Preliminarna studija // Proceedings of the Workshop on High Performance Interconnects for Distributed Computing. 2009. godine.
  12. Chris Broekema. Energetski učinkovit prijenos podataka u radioastronomiji sa softverom UDP RDMA // Računalni sustavi buduće generacije. v.79, 2018. str. 215-224 (prikaz, ostalo).

PS. Ovaj je članak izvorno objavljen u "Administrator sustava".

U anketi mogu sudjelovati samo registrirani korisnici. Prijaviti se, molim.

Zašto su veliki podatkovni centri počeli masovno prelaziti na 100GbE?

  • Zapravo, još se nitko nigdje nije počeo seliti...

  • Zato što je ova tehnologija sazrela i postala jeftinija

  • Zato što su Juniper i Cisco stvorili ASIC-ove za 100GbE preklopnike

  • Budući da su Broadcom, Cavium i Mellanox Technologie dodali podršku za 100GbE

  • Jer poslužitelji sada imaju 25- i 40-gigabitne priključke

  • Vaša verzija (napišite u komentarima)

Glasovalo je 12 korisnika. Suzdržano je bilo 15 korisnika.

Izvor: www.habr.com

Dodajte komentar