100GbE: Luxus oder absolute Notwendigkeit?

IEEE P802.3ba, ein Standard zur Übertragung von Daten über 100 Gigabit Ethernet (100GbE), wurde zwischen 2007 und 2010 entwickelt [3], verbreitete sich jedoch erst 2018 [5]. Warum im Jahr 2018 und nicht früher? Und warum sofort in Scharen? Dafür gibt es mindestens fünf Gründe...

100GbE: Luxus oder absolute Notwendigkeit?

IEEE P802.3ba wurde in erster Linie entwickelt, um den Anforderungen von Rechenzentren und den Anforderungen von Internet-Verkehrsaustauschpunkten (zwischen unabhängigen Betreibern) gerecht zu werden. sowie um den unterbrechungsfreien Betrieb ressourcenintensiver Webdienste wie Portale mit vielen Videoinhalten (z. B. YouTube) sicherzustellen; und für Hochleistungsrechnen. [3] Auch normale Internetnutzer tragen zu veränderten Bandbreitenanforderungen bei: Viele Menschen besitzen Digitalkameras und möchten die von ihnen erfassten Inhalte über das Internet streamen. Das. Die Menge an Inhalten, die im Internet zirkulieren, wird mit der Zeit immer größer. Sowohl auf professioneller als auch auf Verbraucherebene. In all diesen Fällen übersteigt der Gesamtdurchsatz wichtiger Netzwerkknoten bei der Übertragung von Daten von einer Domäne zu einer anderen längst die Fähigkeiten von 10-GbE-Ports. [1] Aus diesem Grund ist ein neuer Standard entstanden: 100GbE.

Große Rechenzentren und Cloud-Dienstanbieter nutzen 100 GbE bereits aktiv und planen, in ein paar Jahren schrittweise auf 200 GbE und 400 GbE umzusteigen. Gleichzeitig streben sie bereits Geschwindigkeiten von mehr als Terabit an. [6] Allerdings gibt es einige große Anbieter, die erst letztes Jahr auf 100GbE umgestiegen sind (z. B. Microsoft Azure). Auch Rechenzentren, die Hochleistungsrechnen für Finanzdienstleistungen, Regierungsplattformen, Öl- und Gasplattformen sowie Versorgungsunternehmen betreiben, haben mit der Umstellung auf 100 GbE begonnen. [5]

In Unternehmensrechenzentren ist der Bedarf an Bandbreite etwas geringer: Erst seit Kurzem ist 10GbE hier eher eine Notwendigkeit als ein Luxus. Da jedoch der Datenverkehrsverbrauch immer schneller zunimmt, ist es zweifelhaft, ob 10GbE mindestens 10 oder sogar 5 Jahre lang in Unternehmensrechenzentren überleben wird. Stattdessen werden wir einen schnellen Übergang zu 25 GbE und einen noch schnelleren Übergang zu 100 GbE erleben. [6] Denn wie Analysten von Intel feststellen, steigt die Intensität des Datenverkehrs innerhalb des Rechenzentrums jährlich um 25 %. [5]

Analysten von Dell und Hewlett Packard geben an [4], dass 2018 das Jahr von 100GbE für Rechenzentren ist. Bereits im August 2018 waren die Auslieferungen von 100-GbE-Geräten doppelt so hoch wie die Auslieferungen im gesamten Jahr 2017. Und das Tempo der Auslieferungen beschleunigt sich weiter, da Rechenzentren beginnen, sich in Scharen von 40 GbE zu entfernen. Es wird erwartet, dass bis 2022 jährlich 19,4 Millionen 100-GbE-Ports ausgeliefert werden (im Jahr 2017 waren es zum Vergleich: 4,6 Millionen). [4] Was die Kosten betrifft, so wurden 2017 100 Milliarden US-Dollar für 7-GbE-Ports ausgegeben, und im Jahr 2020 werden Prognosen zufolge etwa 20 Milliarden US-Dollar ausgegeben (siehe Abbildung 1). [1]

100GbE: Luxus oder absolute Notwendigkeit?
Abbildung 1. Statistiken und Prognosen zur Nachfrage nach Netzwerkausrüstung

Warum jetzt? 100GbE ist nicht gerade eine neue Technologie. Warum gibt es jetzt so viel Hype darum?

1) Weil diese Technologie ausgereift und billiger geworden ist. Im Jahr 2018 haben wir die Grenze überschritten, als der Einsatz von Plattformen mit 100-Gigabit-Ports im Rechenzentrum kostengünstiger wurde als das „Stapeln“ mehrerer 10-Gigabit-Plattformen. Beispiel: Ciena 5170 (siehe Abbildung 2) ist eine kompakte Plattform, die einen Gesamtdurchsatz von 800 GbE (4 x 100 GbE, 40 x 10 GbE) bietet. Wenn mehrere 10-Gigabit-Ports benötigt werden, um den nötigen Durchsatz bereitzustellen, summieren sich die Kosten für zusätzliche Hardware, zusätzlichen Platz, übermäßigen Stromverbrauch, laufende Wartung, zusätzliche Ersatzteile und zusätzliche Kühlsysteme auf eine beachtliche Summe. [1] Beispielsweise kamen die Spezialisten von Hewlett Packard bei der Analyse der potenziellen Vorteile der Umstellung von 10 GbE auf 100 GbE zu folgenden Zahlen: höhere Leistung (56 %), geringere Gesamtkosten (27 %), geringerer Stromverbrauch (31 %), Vereinfachung der Kabelverbindungen (um 38 %). [5]

100GbE: Luxus oder absolute Notwendigkeit?
Abbildung 2. Ciena 5170: Beispielplattform mit 100 Gigabit-Ports

2) Juniper und Cisco haben endlich ihre eigenen ASICs für 100-GbE-Switches entwickelt. [5] Das ist eine beredte Bestätigung dafür, dass die 100-GbE-Technologie wirklich ausgereift ist. Tatsache ist, dass die Herstellung von ASIC-Chips nur dann wirtschaftlich ist, wenn erstens die darauf implementierte Logik in absehbarer Zeit keine Änderungen erfordert und zweitens eine große Anzahl identischer Chips hergestellt wird. Juniper und Cisco würden diese ASICs nicht produzieren, ohne von der Reife von 100GbE überzeugt zu sein.

3) Weil Broadcom, Cavium und Mellanox Technologie damit begonnen haben, Prozessoren mit 100-GbE-Unterstützung zu produzieren, und diese Prozessoren bereits in Switches von Herstellern wie Dell, Hewlett Packard, Huawei Technologies, Lenovo Group usw. verwendet werden. [5]

4) Weil in Server-Racks untergebrachte Server zunehmend mit den neuesten Intel-Netzwerkadaptern (siehe Abbildung 3) ausgestattet sind, mit zwei 25-Gigabit-Ports und manchmal sogar mit konvergenten Netzwerkadaptern mit zwei 40-Gigabit-Ports (XXV710 und XL710). {Abbildung 3. Neueste Intel-NICs: XXV710 und XL710}

5) Da 100-GbE-Geräte abwärtskompatibel sind, was die Bereitstellung vereinfacht: Sie können bereits verlegte Kabel wiederverwenden (schließen Sie einfach einen neuen Transceiver daran an).

Darüber hinaus bereitet uns die Verfügbarkeit von 100GbE auf neue Technologien wie „NVMe over Fabrics“ (z. B. Samsung Evo Pro 256 GB NVMe PCIe SSD; siehe Abb. 4) [8, 10], „Storage Area Network“ (SAN) vor ) / „Software Defined Storage“ (siehe Abb. 5) [7], RDMA [11], die ohne 100GbE ihr volles Potenzial nicht ausschöpfen könnten.

100GbE: Luxus oder absolute Notwendigkeit?
Abbildung 4. Samsung Evo Pro 256 GB NVMe PCIe SSD

100GbE: Luxus oder absolute Notwendigkeit?
Abbildung 5. „Storage Area Network“ (SAN) / „Software Defined Storage“

Als exotisches Beispiel für die praktische Nachfrage nach dem Einsatz von 100GbE und verwandten Hochgeschwindigkeitstechnologien können wir schließlich die wissenschaftliche Cloud der Universität Cambridge (siehe Abb. 6) anführen, die auf Basis von 100GbE (Spectrum) aufgebaut ist SN2700 Ethernet-Switches) – um unter anderem einen effizienten Betrieb des verteilten NexentaEdge SDS-Festplattenspeichers zu gewährleisten, der ein 10/40GbE-Netzwerk leicht überlasten kann. [2] Solche leistungsstarken wissenschaftlichen Clouds werden zur Lösung einer Vielzahl angewandter wissenschaftlicher Probleme eingesetzt [9, 12]. Mediziner nutzen solche Clouds beispielsweise, um das menschliche Genom zu entschlüsseln, und 100-GbE-Kanäle dienen der Informationsübertragung zwischen universitären Forschungsgruppen.

100GbE: Luxus oder absolute Notwendigkeit?
Abbildung 6. Fragment der Wissenschaftswolke der University of Cambridge

Bibliographie

  1. John Hawkins. 100GbE: Näher am Rand, näher an der Realität // 2017.
  2. Amit Katz. 100GbE-Switches – haben Sie schon nachgerechnet? // 2016.
  3. Margaret Rose. 100-Gigabit-Ethernet (100GbE).
  4. David Graves. Dell EMC setzt auf 100-Gigabit-Ethernet für das offene, moderne Rechenzentrum // 2018.
  5. Mary Branscombe. Das Jahr von 100GbE in Rechenzentrumsnetzwerken // 2018.
  6. Jarred Baker. Schneller vorankommen im Unternehmensrechenzentrum // 2017.
  7. Tom Clark. Entwerfen von Storage Area Networks: Eine praktische Referenz für die Implementierung von Fibre Channel und IP SANs. 2003. 572p.
  8. James O'Reilly. Netzwerkspeicher: Tools und Technologien zum Speichern der Daten Ihres Unternehmens // 2017. 280p.
  9. James Sullivan. Studentischer Clusterwettbewerb 2017, Team University of Texas an der Austin/Texas State University: Reproduktion der Vektorisierung des Tersoff-Mehrkörperpotentials auf den Intel Skylake- und NVIDIA V100-Architekturen // Parallel Computing. V.79, 2018. S. 30-35.
  10. Manolis Katevenis. Die nächste Generation von Systemen der Exascale-Klasse: das ExaNeSt-Projekt // Mikroprozessoren und Mikrosysteme. V.61, 2018. S. 58-71.
  11. Hari Subramoni. RDMA über Ethernet: Eine vorläufige Studie // Vorträge des Workshops zu Hochleistungsverbindungen für verteiltes Computing. 2009.
  12. Chris Broekema. Energieeffiziente Datenübertragung in der Radioastronomie mit Software UDP RDMA // Computersysteme der Zukunft. V.79, 2018. S. 215-224.

PS. Der Artikel wurde ursprünglich in veröffentlicht "Systemadministrator".

An der Umfrage können nur registrierte Benutzer teilnehmen. Einloggenbitte.

Warum begannen große Rechenzentren massenhaft auf 100GbE umzusteigen?

  • Eigentlich hat noch niemand angefangen, irgendwohin zu ziehen ...

  • Weil diese Technologie ausgereift und billiger geworden ist

  • Weil Juniper und Cisco ASICs für 100-GbE-Switches entwickelt haben

  • Weil Broadcom, Cavium und Mellanox Technologie 100GbE-Unterstützung hinzugefügt haben

  • Denn die Server verfügen mittlerweile über 25- und 40-Gigabit-Ports

  • Deine Version (schreib in die Kommentare)

12 Benutzer haben abgestimmt. 15 Benutzer enthielten sich der Stimme.

Source: habr.com

Kommentar hinzufügen