100GbE: luxus vagy elengedhetetlen szükséglet?

Az IEEE P802.3ba szabványt, a 100 Gigabites Etherneten (100 GbE) keresztüli adatátvitelt 2007 és 2010 között fejlesztették ki [3], de csak 2018-ban terjedt el [5]. Miért 2018-ban és miért nem korábban? És miért azonnal tömegesen? Ennek legalább öt oka van...

100GbE: luxus vagy elengedhetetlen szükséglet?

Az IEEE P802.3ba-t elsősorban az adatközpontok és az internetes forgalmi cserepontok (független szolgáltatók közötti) igényeinek kielégítésére fejlesztették ki; valamint az erőforrás-igényes webszolgáltatások, például a nagy mennyiségű videótartalommal rendelkező portálok (például YouTube) zavartalan működésének biztosítása; és a nagy teljesítményű számítástechnikához. [3] Az átlagos internetfelhasználók is hozzájárulnak a változó sávszélesség-igényekhez: Sok embernek van digitális kamerája, és az általuk rögzített tartalmakat az interneten keresztül szeretnék streamelni. Hogy. Az interneten keringő tartalom mennyisége idővel egyre nagyobb. Szakmai és fogyasztói szinten egyaránt. Mindezekben az esetekben, amikor az adatokat egyik tartományból a másikba továbbítják, a kulcsfontosságú hálózati csomópontok teljes átvitele már régóta meghaladta a 10 GbE portok képességeit. [1] Ez az oka egy új szabvány megjelenésének: 100GbE.

A nagy adatközpontok és felhőszolgáltatók már aktívan használják a 100 GbE-t, és néhány éven belül fokozatosan áttérnek 200 GbE-re és 400 GbE-re. Ugyanakkor már terabitet meghaladó sebességgel is számolnak. [6] Bár vannak olyan nagy beszállítók, amelyek csak tavaly térnek át a 100 GbE-re (például a Microsoft Azure). A pénzügyi szolgáltatásokhoz, kormányzati platformokhoz, olaj- és gázipari platformokhoz és közművekhez nagy teljesítményű számítástechnikát futtató adatközpontok szintén 100 GbE-re költöztek. [5]

A vállalati adatközpontokban valamivel alacsonyabb a sávszélesség iránti igény: a 10 GbE itt csak mostanában vált szükségletté, mint luxuscéggé. A forgalomfelhasználás ütemének egyre gyorsabb növekedésével azonban kétséges, hogy a 10 GbE legalább 10 vagy akár 5 évig élni fog a vállalati adatközpontokban. Ehelyett egy gyors lépést fogunk látni 25 GbE felé, és még gyorsabbat 100 GbE felé. [6] Mivel, amint az Intel elemzői megjegyzik, az adatközponton belüli forgalom intenzitása évente 25%-kal nő. [5]

A Dell és a Hewlett Packard elemzői szerint [4] 2018 a 100 GbE éve az adatközpontok számára. 2018 augusztusában a 100 GbE berendezések kiszállítása kétszer akkora volt, mint a teljes 2017-es évben. A szállítások üteme pedig tovább gyorsul, ahogy az adatközpontok tömegesen kezdenek távolodni a 40 GbE-től. A várakozások szerint 2022-re évente 19,4 millió 100 GbE portot szállítanak ki (összehasonlításképpen 2017-ben ez a szám 4,6 millió volt). [4] Ami a költségeket illeti, 2017-ben 100 milliárd dollárt költöttek 7 GbE portokra, 2020-ban pedig az előrejelzések szerint körülbelül 20 milliárd dollárt (lásd 1. ábra). [1]

100GbE: luxus vagy elengedhetetlen szükséglet?
1. ábra A hálózati berendezések iránti kereslet statisztikái és előrejelzései

Miért most? A 100 GbE nem éppen új technológia, akkor miért van mostanság körülötte ekkora felhajtás?

1) Mert ez a technológia kiforrott és olcsóbb lett. 2018-ban léptük át a határt, amikor a 100 gigabites portokkal rendelkező platformok használata az adatközpontban költséghatékonyabbá vált, mint több 10 gigabites platform „halmozása”. Példa: A Ciena 5170 (lásd a 2. ábrát) egy kompakt platform, amely 800 GbE (4x100 GbE, 40x10 GbE) összesített átviteli sebességet biztosít. Ha több 10 gigabites portra van szükség a szükséges áteresztőképesség biztosításához, akkor a további hardverek, a többletterület, a túlzott energiafogyasztás, a folyamatos karbantartás, a további alkatrészek és a további hűtőrendszerek költsége egy szép összeget tesz ki. [1] Például a Hewlett Packard szakemberei a 10 GbE-ről 100 GbE-re való átállás lehetséges előnyeit elemezve a következő számokra jutottak: nagyobb teljesítmény (56%), alacsonyabb összköltség (27%), alacsonyabb energiafogyasztás (31%), a kábelcsatlakozások egyszerűsítése (38%-kal). [5]

100GbE: luxus vagy elengedhetetlen szükséglet?
2. ábra Ciena 5170: példa platform 100 Gigabit porttal

2) A Juniper és a Cisco végre elkészítette saját ASIC-jét a 100 GbE kapcsolókhoz. [5] Ez beszédes megerősítése annak, hogy a 100GbE technológia valóban kiforrott. Az a tény, hogy csak akkor költséghatékony az ASIC chipek létrehozása, amikor egyrészt a rajtuk megvalósított logika belátható időn belül nem igényel változtatást, másrészt ha nagyszámú azonos chipet gyártanak. A Juniper és a Cisco nem gyártaná ezeket az ASIC-eket anélkül, hogy nem bízna a 100 GbE lejáratában.

3) Mivel a Broadcom, a Cavium és a Mellanox Technologie megkezdte a 100 GbE támogatású processzorok kitermelését, és ezeket a processzorokat már használják olyan gyártók switcheiben, mint a Dell, a Hewlett Packard, a Huawei Technologies, a Lenovo Group stb. [5]

4) Mivel a szerverállványokban elhelyezett szerverek egyre gyakrabban vannak felszerelve a legújabb Intel hálózati adapterekkel (lásd a 3. ábrát), két 25 Gigabites porttal, és néha még konvergens hálózati adapterekkel is két 40 Gigabites porttal (XXV710 és XL710). {3. ábra. Legújabb Intel hálózati kártyák: XXV710 és XL710}

5) Mivel a 100 GbE berendezések visszafelé kompatibilisek, ami leegyszerűsíti a telepítést: újra felhasználhatja a már elvezetett kábeleket (csak csatlakoztasson hozzájuk egy új adó-vevőt).

Ezenkívül a 100 GbE elérhetősége felkészít minket az olyan új technológiákra, mint az „NVMe over Fabrics” (például Samsung Evo Pro 256 GB NVMe PCIe SSD; lásd a 4. ábrát) [8, 10], „Storage Area Network” (SAN) ) / „Szoftver által definiált tároló” (lásd 5. ábra) [7], RDMA [11], amelyek 100 GbE nélkül nem tudnák teljes potenciált kiaknázni.

100GbE: luxus vagy elengedhetetlen szükséglet?
4. ábra Samsung Evo Pro 256 GB NVMe PCIe SSD

100GbE: luxus vagy elengedhetetlen szükséglet?
5. ábra: „Storage Area Network” (SAN) / „Software Defined Storage”

Végül a 100GbE és a kapcsolódó nagysebességű technológiák alkalmazásának gyakorlati igényének egzotikus példájaként említhetjük a Cambridge-i Egyetem tudományos felhőjét (lásd 6. ábra), amely 100GbE-re (Spectrum) épül. SN2700 Ethernet switchek) - többek között a NexentaEdge SDS elosztott lemeztároló hatékony működésének biztosítása érdekében, amely könnyen túlterhelheti a 10/40GbE hálózatot. [2] Az ilyen nagy teljesítményű tudományos felhőket számos alkalmazott tudományos probléma megoldására alkalmazzák [9, 12]. Például az orvostudósok ilyen felhőket használnak az emberi genom megfejtésére, a 100 GbE csatornákat pedig az egyetemi kutatócsoportok közötti információátvitelre.

100GbE: luxus vagy elengedhetetlen szükséglet?
6. ábra A Cambridge-i Egyetem tudományos felhőjének töredéke

Bibliográfia

  1. John Hawkins. 100 GbE: Közelebb a szélhez, közelebb a valósághoz 2017.
  2. Amit Katz. 100 GbE kapcsolók – Kiszámoltad? 2016.
  3. Margaret Rose. 100 Gigabit Ethernet (100 GbE).
  4. David Graves. A Dell EMC megduplázza a 100 Gigabit Ethernetet a nyílt, modern adatközpontban 2018.
  5. Mary Branscombe. A 100 GbE éve az adatközponti hálózatokban 2018.
  6. Jarred Baker. Gyorsabb mozgás az Enterprise Data Centerben 2017.
  7. Tom Clark. Tárolóterületi hálózatok tervezése: Gyakorlati útmutató a Fiber Channel és IP SAN-ok megvalósításához. 2003. 572p.
  8. James O'Reilly. Hálózati tárolás: Eszközök és technológiák a vállalati adatok tárolására // 2017. 280p.
  9. James Sullivan. Diákfürtverseny 2017, Team University of Texas, Austin/Texas State University: A Tersoff többtestű potenciál vektorizálásának reprodukálása Intel Skylake és NVIDIA V100 architektúrákon // Párhuzamos számítástechnika. v.79, 2018. pp. 30-35.
  10. Manolis Katevenis. Az Exascale-osztályú rendszerek következő generációja: az ExaNeSt projekt // Mikroprocesszorok és mikrorendszerek. v.61, 2018. pp. 58-71.
  11. Hari Subramoni. RDMA over Ethernet: Előzetes tanulmány // Az elosztott számítástechnikai nagy teljesítményű összekapcsolásokról szóló műhelymunka anyaga. 2009.
  12. Chris Broekema. Energiahatékony adatátvitel a rádiócsillagászatban UDP RDMA szoftverrel // Future Generation Computer Systems. v.79, 2018. pp. 215-224.

PS. Ez a cikk eredetileg ben jelent meg "Rendszergazda".

A felmérésben csak regisztrált felhasználók vehetnek részt. Bejelentkezés, kérem.

Miért kezdtek el tömegesen áttérni a nagy adatközpontok 100 GbE-re?

  • Igazából még senki sem kezdett el sehova költözni...

  • Mert ez a technológia kiforrott és olcsóbb lett

  • Mert a Juniper és a Cisco ASIC-ket hozott létre a 100 GbE kapcsolókhoz

  • Mert a Broadcom, a Cavium és a Mellanox Technologie hozzáadta a 100 GbE támogatást

  • Mert a szervereken már 25 és 40 gigabites portok vannak

  • A te verziód (írd meg kommentben)

12 felhasználó szavazott. 15 felhasználó tartózkodott.

Forrás: will.com

Hozzászólás