100GbE : luxe ou nécessité incontournable ?

IEEE P802.3ba, une norme de transmission de données sur 100 Gigabit Ethernet (100GbE), a été développée entre 2007 et 2010 [3], mais ne s'est généralisée qu'en 2018 [5]. Pourquoi en 2018 et pas avant ? Et pourquoi immédiatement en masse ? Il y a au moins cinq raisons à cela...

100GbE : luxe ou nécessité incontournable ?

IEEE P802.3ba a été développé principalement pour répondre aux besoins des centres de données et aux besoins des points d'échange de trafic Internet (entre opérateurs indépendants) ; ainsi que pour assurer le fonctionnement ininterrompu des services Web gourmands en ressources, tels que les portails proposant une grande quantité de contenu vidéo (par exemple, YouTube) ; et pour le calcul haute performance. [3] Les utilisateurs Internet ordinaires contribuent également à l'évolution de la demande de bande passante : de nombreuses personnes possèdent des appareils photo numériques et souhaitent diffuser le contenu qu'elles capturent sur Internet. Que. Le volume de contenus circulant sur Internet devient de plus en plus important au fil du temps. Tant au niveau professionnel que consommateur. Dans tous ces cas, lors du transfert de données d'un domaine à un autre, le débit total des nœuds clés du réseau a depuis longtemps dépassé les capacités des ports 10GbE. [1] C'est la raison de l'émergence d'un nouveau standard : le 100GbE.

Les grands centres de données et les fournisseurs de services cloud utilisent déjà activement le 100GbE et prévoient de passer progressivement aux 200GbE et 400GbE dans quelques années. Dans le même temps, ils envisagent déjà des vitesses supérieures au térabit. [6] Bien que certains grands fournisseurs soient passés au 100GbE seulement l'année dernière (par exemple, Microsoft Azure). Les centres de données exécutant un calcul haute performance pour les services financiers, les plates-formes gouvernementales, les plates-formes pétrolières et gazières et les services publics ont également commencé à migrer vers le 100GbE. [5]

Dans les centres de données d'entreprise, la demande en bande passante est un peu plus faible : ce n'est que récemment que le 10GbE est devenu ici une nécessité plutôt qu'un luxe. Cependant, à mesure que le taux de consommation de trafic augmente de plus en plus rapidement, il est peu probable que le 10GbE perdure dans les centres de données des entreprises pendant au moins 10, voire 5 ans. Au lieu de cela, nous assisterons à une transition rapide vers le 25GbE et encore plus rapide vers le 100GbE. [6] Car, comme le notent les analystes d'Intel, l'intensité du trafic à l'intérieur du centre de données augmente chaque année de 25 %. [5]

Les analystes de Dell et Hewlett Packard affirment [4] que 2018 est l'année du 100GbE pour les centres de données. En août 2018, les livraisons d'équipements 100GbE étaient deux fois plus élevées que celles de l'ensemble de l'année 2017. Et le rythme des expéditions continue de s’accélérer à mesure que les centres de données commencent à s’éloigner massivement du 40GbE. On s'attend à ce que d'ici 2022, 19,4 millions de ports 100GbE soient expédiés chaque année (en 2017, à titre de comparaison, ce chiffre était de 4,6 millions). [4] En ce qui concerne les coûts, en 2017, 100 milliards de dollars ont été dépensés pour les ports 7GbE, et en 2020, selon les prévisions, environ 20 milliards de dollars seront dépensés (voir Fig. 1). [1]

100GbE : luxe ou nécessité incontournable ?
Figure 1. Statistiques et prévisions de la demande d'équipements de réseau

Pourquoi maintenant? Le 100GbE n’est pas exactement une nouvelle technologie, alors pourquoi y a-t-il autant de battage médiatique à son sujet aujourd’hui ?

1) Parce que cette technologie a mûri et est devenue moins chère. C’est en 2018 que nous avons franchi la limite lorsque l’utilisation de plates-formes dotées de ports 100 Gigabit dans le centre de données est devenue plus rentable que « l’empilage » de plusieurs plates-formes 10 Gigabit. Exemple : Ciena 5170 (voir Figure 2) est une plate-forme compacte qui fournit un débit global de 800 GbE (4 x 100 GbE, 40 x 10 GbE). Si plusieurs ports 10 Gigabit sont nécessaires pour fournir le débit nécessaire, les coûts liés au matériel supplémentaire, à l'espace supplémentaire, à la consommation électrique excessive, à la maintenance continue, aux pièces de rechange supplémentaires et aux systèmes de refroidissement supplémentaires représentent une somme assez coquette. [1] Par exemple, les spécialistes de Hewlett Packard, analysant les avantages potentiels du passage du 10GbE au 100GbE, sont parvenus aux chiffres suivants : des performances plus élevées (56 %), des coûts totaux inférieurs (27 %), une consommation électrique inférieure (31 %), simplification des connexions par câble (de 38 %). [5]

100GbE : luxe ou nécessité incontournable ?
Figure 2. Ciena 5170 : exemple de plate-forme avec 100 ports Gigabit

2) Juniper et Cisco ont enfin créé leurs propres ASIC pour les commutateurs 100GbE. [5] Ce qui confirme éloquentement que la technologie 100GbE est réellement mature. Le fait est qu'il est rentable de créer des puces ASIC uniquement lorsque, d'une part, la logique qui y est mise en œuvre ne nécessite pas de modifications dans un avenir prévisible, et d'autre part, lorsqu'un grand nombre de puces identiques sont fabriquées. Juniper et Cisco ne produiraient pas ces ASIC sans avoir confiance dans la maturité du 100GbE.

3) Parce que Broadcom, Cavium et Mellanox Technologie ont commencé à produire des processeurs prenant en charge 100 GbE, et ces processeurs sont déjà utilisés dans les commutateurs de fabricants tels que Dell, Hewlett Packard, Huawei Technologies, Lenovo Group, etc. [5]

4) Parce que les serveurs hébergés dans des racks de serveurs sont de plus en plus équipés des dernières cartes réseau Intel (voir Figure 3), avec deux ports 25 Gigabit, et parfois même des cartes réseau convergées avec deux ports 40 Gigabit (XXV710 et XL710). {Figure 3. Dernières cartes réseau Intel : XXV710 et XL710}

5) Parce que les équipements 100GbE sont rétrocompatibles, ce qui simplifie le déploiement : vous pouvez réutiliser les câbles déjà acheminés (il suffit d'y connecter un nouvel émetteur-récepteur).

De plus, la disponibilité du 100GbE nous prépare à de nouvelles technologies telles que « NVMe over Fabrics » (par exemple, Samsung Evo Pro 256 Go NVMe PCIe SSD ; voir Fig. 4) [8, 10], « Storage Area Network » (SAN ) / « Software Defined Storage » (voir Fig. 5) [7], RDMA [11], qui sans 100GbE ne pourraient pas réaliser leur plein potentiel.

100GbE : luxe ou nécessité incontournable ?
Figure 4. Disque SSD NVMe PCIe Samsung Evo Pro de 256 Go

100GbE : luxe ou nécessité incontournable ?
Figure 5. « Réseau de zone de stockage » (SAN) / « Stockage défini par logiciel »

Enfin, comme exemple exotique de la demande pratique pour l'utilisation du 100GbE et des technologies haut débit associées, on peut citer le cloud scientifique de l'Université de Cambridge (voir Fig. 6), construit sur la base du 100GbE (Spectrum commutateurs Ethernet SN2700) - afin, entre autres, d'assurer un fonctionnement efficace du stockage sur disque distribué NexentaEdge SDS, qui peut facilement surcharger un réseau 10/40GbE. [2] De tels nuages ​​scientifiques hautes performances sont déployés pour résoudre une grande variété de problèmes scientifiques appliqués [9, 12]. Par exemple, les scientifiques médicaux utilisent ces nuages ​​pour déchiffrer le génome humain, et les canaux 100GbE sont utilisés pour transférer des informations entre groupes de recherche universitaires.

100GbE : luxe ou nécessité incontournable ?
Figure 6. Fragment du cloud scientifique de l'Université de Cambridge

Bibliographie

  1. John Hawkins. 100GbE : plus proche de la périphérie, plus proche de la réalité // une.
  2. Amit Katz. Commutateurs 100GbE – Avez-vous fait le calcul ? // une.
  3. Marguerite Rouss. Ethernet 100 Gigabits (100GbE).
  4. David Graves. Dell EMC redouble d’efforts en matière d’Ethernet 100 Gigabit pour les centres de données ouverts et modernes // une.
  5. Marie Branscombe. L'année du 100GbE dans les réseaux de centres de données // une.
  6. Jarred Baker. Avancer plus rapidement dans le centre de données d'entreprise // une.
  7. Tom Clark. Conception de réseaux de stockage : une référence pratique pour la mise en œuvre de SAN Fibre Channel et IP. 2003. 572p.
  8. James O'Reilly. Stockage réseau : outils et technologies pour stocker les données de votre entreprise // 2017. 280p.
  9. James Sullivan. Concours de clusters étudiants 2017, Team University of Texas at Austin/Texas State University : Reproduction de la vectorisation du potentiel multi-corps Tersoff sur les architectures Intel Skylake et NVIDIA V100 // Parallel Computing. v.79, 2018. p. 30-35.
  10. Manolis Katevenis. La prochaine génération de systèmes de classe Exascale : le projet ExaNeSt // Microprocesseurs et microsystèmes. v.61, 2018. p. 58-71.
  11. Hari Subramoni. RDMA sur Ethernet : une étude préliminaire // Actes de l'atelier sur les interconnexions hautes performances pour l'informatique distribuée. 2009.
  12. Chris Broekema. Transferts de données économes en énergie en radioastronomie avec le logiciel UDP RDMA // Systèmes informatiques de nouvelle génération. v.79, 2018. p. 215-224.

PS. Cet article a été initialement publié dans "Administrateur du système".

Seuls les utilisateurs enregistrés peuvent participer à l'enquête. se connecters'il te plait.

Pourquoi les grands centres de données ont-ils commencé à migrer en masse vers le 100GbE ?

  • En fait, personne n’a encore commencé à déménager...

  • Parce que cette technologie a mûri et est devenue moins chère

  • Parce que Juniper et Cisco ont créé des ASIC pour les commutateurs 100GbE

  • Parce que Broadcom, Cavium et Mellanox Technologie ont ajouté la prise en charge 100GbE

  • Parce que les serveurs disposent désormais de ports 25 et 40 Gigabit

  • Votre version (écrivez dans les commentaires)

12 utilisateurs ont voté. 15 utilisateurs se sont abstenus.

Source: habr.com

Ajouter un commentaire