100GbE: luxe o necessitat essencial?

IEEE P802.3ba, un estàndard per transmetre dades a través de 100 Gigabit Ethernet (100GbE), es va desenvolupar entre 2007 i 2010 [3], però només es va generalitzar el 2018 [5]. Per què el 2018 i no abans? I per què immediatament en massa? Hi ha almenys cinc raons per això...

100GbE: luxe o necessitat essencial?

IEEE P802.3ba es va desenvolupar principalment per satisfer les necessitats dels centres de dades i les necessitats dels punts d'intercanvi de trànsit d'Internet (entre operadors independents); així com per garantir el funcionament ininterromput dels serveis web que consumeixen molts recursos, com ara portals amb una gran quantitat de contingut de vídeo (per exemple, YouTube); i per a la informàtica d'alt rendiment. [3] Els usuaris normals d'Internet també contribueixen a canviar els requisits d'ample de banda: molta gent té càmeres digitals i la gent vol transmetre el contingut que capturen a través d'Internet. Això. El volum de contingut que circula per Internet és cada cop més gran amb el temps. Tant a nivell professional com de consumidor. En tots aquests casos, quan es transfereixen dades d'un domini a un altre, el rendiment total dels nodes clau de la xarxa ha superat durant molt de temps les capacitats dels ports de 10 GbE. [1] Aquest és el motiu de l'aparició d'un nou estàndard: 100GbE.

Els grans centres de dades i els proveïdors de serveis al núvol ja estan utilitzant activament 100 GbE i tenen previst passar gradualment a 200 GbE i 400 GbE en un parell d'anys. Al mateix temps, ja estan mirant velocitats que superen el terabit. [6] Tot i que hi ha alguns proveïdors grans que només l'any passat s'estan passant a 100 GbE (per exemple, Microsoft Azure). Els centres de dades que executen informàtica d'alt rendiment per a serveis financers, plataformes governamentals, plataformes de petroli i gas i serveis públics també han començat a passar a 100 GbE. [5]

Als centres de dades empresarials, la demanda d'ample de banda és una mica menor: només recentment 10 GbE s'ha convertit aquí en una necessitat i no en un luxe. Tanmateix, a mesura que la taxa de consum de trànsit creix cada cop més ràpidament, és dubtós que 10GbE visqui als centres de dades empresarials durant almenys 10 o fins i tot 5 anys. En canvi, veurem un moviment ràpid a 25 GbE i un moviment encara més ràpid a 100 GbE. [6] Perquè, com assenyalen els analistes d'Intel, la intensitat del trànsit dins del centre de dades augmenta anualment un 25%. [5]

Els analistes de Dell i Hewlett Packard afirmen [4] que el 2018 és l'any de 100 GbE per als centres de dades. A l'agost de 2018, els lliuraments d'equips de 100 GbE van ser el doble que els lliuraments durant tot l'any 2017. I el ritme dels enviaments continua accelerant-se a mesura que els centres de dades comencen a allunyar-se dels 40 GbE en massa. S'espera que l'any 2022 s'enviïn 19,4 milions de ports 100GbE anualment (el 2017, en comparació, aquesta xifra va ser de 4,6 milions). [4] Pel que fa als costos, el 2017 es van gastar 100 milions de dòlars en ports de 7 GbE i el 2020, segons les previsions, es gastaran uns 20 milions de dòlars (vegeu la figura 1). [1]

100GbE: luxe o necessitat essencial?
Figura 1. Estadístiques i previsions de demanda d'equips de xarxa

Per què ara? 100GbE no és precisament una tecnologia nova, així que, per què hi ha tant de bombo al seu voltant ara?

1) Perquè aquesta tecnologia ha madurat i s'ha tornat més barata. Va ser el 2018 quan vam creuar la línia quan l'ús de plataformes amb ports de 100 Gigabit al centre de dades es va fer més rendible que "apilar" diverses plataformes de 10 Gigabit. Exemple: Ciena 5170 (vegeu la figura 2) és una plataforma compacta que proporciona un rendiment agregat de 800 GbE (4x100GbE, 40x10GbE). Si es necessiten diversos ports de 10 Gigabits per proporcionar el rendiment necessari, els costos del maquinari addicional, l'espai addicional, el consum d'energia excessiu, el manteniment continu, les peces de recanvi addicionals i els sistemes de refrigeració addicionals sumen una suma força ordenada. [1] Per exemple, els especialistes de Hewlett Packard, analitzant els beneficis potencials de passar de 10GbE a 100GbE, van arribar a les xifres següents: major rendiment (56%), menors costos totals (27%), menor consum d'energia (31%), simplificació de les connexions per cable (en un 38%). [5]

100GbE: luxe o necessitat essencial?
Figura 2. Ciena 5170: exemple de plataforma amb ports de 100 Gigabit

2) Juniper i Cisco finalment han creat els seus propis ASIC per a commutadors de 100 GbE. [5] La qual cosa és una confirmació eloqüent del fet que la tecnologia 100GbE és realment madura. El fet és que és rendible crear xips ASIC només quan, en primer lloc, la lògica implementada en ells no requereix canvis en un futur previsible i, en segon lloc, quan es fabriquen un gran nombre de xips idèntics. Juniper i Cisco no produirien aquests ASIC sense confiar en la maduresa de 100 GbE.

3) Perquè Broadcom, Cavium i Mellanox Technologie han començat a produir processadors amb suport de 100 GbE, i aquests processadors ja s'utilitzen en commutadors de fabricants com Dell, Hewlett Packard, Huawei Technologies, Lenovo Group, etc. [5]

4) Perquè els servidors allotjats en bastidors de servidors estan equipats cada cop més amb els adaptadors de xarxa Intel més recents (vegeu la figura 3), amb dos ports de 25 Gigabits i, de vegades, fins i tot adaptadors de xarxa convergents amb dos ports de 40 Gigabits (XXV710 i XL710). {Figura 3. Les últimes NIC d'Intel: XXV710 i XL710}

5) Com que l'equip de 100 GbE és compatible amb versions anteriors, la qual cosa simplifica el desplegament: podeu reutilitzar els cables ja encaminats (només cal connectar-hi un transceptor nou).

A més, la disponibilitat de 100 GbE ens prepara per a noves tecnologies com ara "NVMe over Fabrics" (per exemple, Samsung Evo Pro 256 GB NVMe PCIe SSD; vegeu la figura 4) [8, 10], "Storage Area Network" (SAN). ) / "Software Defined Storage" (vegeu la Fig. 5) [7], RDMA [11], que sense 100 GbE no podrien realitzar tot el seu potencial.

100GbE: luxe o necessitat essencial?
Figura 4. Samsung Evo Pro 256 GB NVMe PCIe SSD

100GbE: luxe o necessitat essencial?
Figura 5. "Xarxa d'àrea d'emmagatzematge" (SAN) / "Emmagatzematge definit per programari"

Finalment, com a exemple exòtic de la demanda pràctica per a l'ús de 100GbE i tecnologies d'alta velocitat relacionades, podem citar el núvol científic de la Universitat de Cambridge (vegeu la figura 6), que es construeix sobre la base de 100 GbE (Spectrum). Commutadors Ethernet SN2700): per tal, entre altres coses, de garantir un funcionament eficient de l'emmagatzematge de disc distribuït NexentaEdge SDS, que pot sobrecarregar fàcilment una xarxa de 10/40 GbE. [2] Aquests núvols científics d'alt rendiment es despleguen per resoldre una gran varietat de problemes científics aplicats [9, 12]. Per exemple, els científics mèdics utilitzen aquests núvols per desxifrar el genoma humà i s'utilitzen canals de 100 GbE per transferir informació entre grups de recerca universitaris.

100GbE: luxe o necessitat essencial?
Figura 6. Fragment del núvol científic de la Universitat de Cambridge

Bibliografia

  1. John Hawkins. 100 GbE: més a prop de la vora, més a prop de la realitat // 2017.
  2. Amit Katz. Commutadors de 100 GbE: heu fet les matemàtiques? // 2016.
  3. Margaret Rose. 100 Gigabit Ethernet (100 GbE).
  4. David Graves. Dell EMC es duplica amb 100 Gigabit Ethernet per al centre de dades obert i modern // 2018.
  5. Mary Branscombe. L'any del 100 GbE a les xarxes de centres de dades // 2018.
  6. Jarred Baker. Mou-te més ràpid al centre de dades empresarial // 2017.
  7. Tom Clark. Disseny de xarxes d'àrea d'emmagatzematge: una referència pràctica per a la implementació de SAN de canal de fibra i IP. 2003. 572 p.
  8. James O'Reilly. Emmagatzematge en xarxa: eines i tecnologies per emmagatzemar les dades de la teva empresa // 2017. 280p.
  9. James Sullivan. Concurs de clústers d'estudiants 2017, Team University of Texas at Austin/Texas State University: Reproducció de la vectorització del potencial multicossos de Tersoff a les arquitectures Intel Skylake i NVIDIA V100 // Parallel Computing. v.79, 2018. pàg. 30-35.
  10. Manolis Katevenis. La propera generació de sistemes de classe Exascale: el projecte ExaNeSt // Microprocessadors i microsistemes. v.61, 2018. pàg. 58-71.
  11. Hari Subramoni. RDMA a través d'Ethernet: Estudi preliminar // Actes del Taller d'Interconnexions d'Alt Rendiment per a Informàtica Distribuïda. 2009.
  12. Chris Broekema. Transferències de dades d'eficiència energètica en radioastronomia amb programari UDP RDMA // Sistemes informàtics de generació futura. v.79, 2018. pàg. 215-224.

PS. Aquest article es va publicar originalment a "Administrador de sistemes".

Només els usuaris registrats poden participar en l'enquesta. Inicia sessiósi us plau.

Per què els grans centres de dades van començar a moure's en massa a 100 GbE?

  • De fet, ningú s'ha començat a moure enlloc encara...

  • Perquè aquesta tecnologia ha madurat i s'ha tornat més barata

  • Perquè Juniper i Cisco van crear ASIC per a commutadors de 100 GbE

  • Perquè Broadcom, Cavium i Mellanox Technologie han afegit suport de 100 GbE

  • Perquè els servidors ara tenen ports de 25 i 40 gigabits

  • La teva versió (escriu als comentaris)

Han votat 12 usuaris. 15 usuaris es van abstenir.

Font: www.habr.com

Afegeix comentari