100GbE: luksus czy niezbędna konieczność?

IEEE P802.3ba, standard transmisji danych w sieci 100 Gigabit Ethernet (100GbE), został opracowany w latach 2007–2010 [3], ale rozpowszechnił się dopiero w 2018 r. [5]. Dlaczego w 2018 r., a nie wcześniej? I dlaczego od razu masowo? Powodów jest co najmniej pięć…

100GbE: luksus czy niezbędna konieczność?

IEEE P802.3ba został opracowany przede wszystkim na potrzeby centrów danych oraz na potrzeby punktów wymiany ruchu internetowego (pomiędzy niezależnymi operatorami); a także w celu zapewnienia nieprzerwanego działania usług sieciowych wymagających dużych zasobów, takich jak portale z dużą ilością treści wideo (np. YouTube); oraz do obliczeń o wysokiej wydajności. [3] Zwykli użytkownicy Internetu również przyczyniają się do zmiany zapotrzebowania na przepustowość: wiele osób ma aparaty cyfrowe i chcą przesyłać strumieniowo treści, które przechwytują, przez Internet. To. Z biegiem czasu ilość treści krążących w Internecie staje się coraz większa. Zarówno na poziomie profesjonalnym, jak i konsumenckim. We wszystkich tych przypadkach podczas przesyłania danych z jednej domeny do drugiej łączna przepustowość kluczowych węzłów sieci już dawno przekroczyła możliwości portów 10GbE. [1] To jest powód pojawienia się nowego standardu: 100GbE.

Duże centra danych i dostawcy usług w chmurze już aktywnie korzystają z sieci 100 GbE, a w ciągu kilku lat planują stopniowe przejście na technologie 200 GbE i 400 GbE. Jednocześnie już patrzą na prędkości przekraczające terabit. [6] Chociaż niektórzy duzi dostawcy przeszli na 100GbE dopiero w zeszłym roku (na przykład Microsoft Azure). Centra danych obsługujące obliczenia o wysokiej wydajności na potrzeby usług finansowych, platform rządowych, platform naftowych i gazowych oraz przedsiębiorstw użyteczności publicznej również zaczęły przechodzić na technologię 100GbE. [5]

W korporacyjnych centrach danych zapotrzebowanie na przepustowość jest nieco niższe: dopiero od niedawna 10GbE stało się tutaj koniecznością, a nie luksusem. Ponieważ jednak tempo wykorzystania ruchu rośnie coraz szybciej, wątpliwe jest, czy sieć 10GbE przetrwa w centrach danych przedsiębiorstw co najmniej 10, a nawet 5 lat. Zamiast tego będziemy świadkami szybkiego przejścia do 25 GbE i jeszcze szybszego do 100 GbE. [6] Ponieważ, jak zauważają analitycy Intela, natężenie ruchu wewnątrz centrum danych wzrasta rocznie o 25%. [5]

Analitycy firm Dell i Hewlett Packard twierdzą [4], że rok 2018 to rok 100GbE dla centrów danych. Jeszcze w sierpniu 2018 roku dostawy sprzętu 100GbE były dwukrotnie wyższe niż dostawy za cały 2017 rok. Tempo dostaw stale rośnie, w miarę jak centra danych zaczynają masowo odchodzić od sieci 40 GbE. Oczekuje się, że do 2022 roku rocznie będzie wysyłanych 19,4 mln portów 100GbE (w 2017 r. dla porównania było to 4,6 mln). [4] Jeśli chodzi o koszty, w 2017 roku na porty 100GbE wydano 7 miliardów dolarów, a w 2020 roku według prognoz wyniesie się około 20 miliardów dolarów (por. rys. 1). [1]

100GbE: luksus czy niezbędna konieczność?
Rysunek 1. Statystyki i prognozy zapotrzebowania na sprzęt sieciowy

Dlaczego teraz? Sieć 100GbE nie jest całkiem nową technologią, więc dlaczego wokół niej jest teraz tyle szumu?

1) Ponieważ ta technologia dojrzała i stała się tańsza. W 2018 roku przekroczyliśmy granicę, gdy korzystanie z platform z portami 100-Gigabitowymi w centrum danych stało się bardziej opłacalne niż „układanie w stos” kilku platform 10-Gigabitowych. Przykład: Ciena 5170 (patrz rysunek 2) to kompaktowa platforma zapewniająca łączną przepustowość 800GbE (4x100GbE, 40x10GbE). Jeśli do zapewnienia niezbędnej przepustowości potrzeba wielu portów 10-Gigabitowych, wówczas koszty dodatkowego sprzętu, dodatkowej przestrzeni, nadmiernego zużycia energii, bieżącej konserwacji, dodatkowych części zamiennych i dodatkowych systemów chłodzenia sumują się w całkiem porządną sumę. [1] Przykładowo specjaliści Hewlett Packard, analizując potencjalne korzyści przejścia z 10GbE na 100GbE, doszli do następujących liczb: wyższa wydajność (56%), niższe koszty całkowite (27%), mniejsze zużycie energii (31%), uproszczenie połączeń kablowych (o 38%). [5]

100GbE: luksus czy niezbędna konieczność?
Rysunek 2. Ciena 5170: przykładowa platforma z portami 100 Gigabit

2) Firmy Juniper i Cisco w końcu stworzyły własne układy ASIC dla przełączników 100GbE. [5] Co jest wymownym potwierdzeniem faktu, że technologia 100GbE jest naprawdę dojrzała. Faktem jest, że tworzenie chipów ASIC jest opłacalne tylko wtedy, gdy po pierwsze zaimplementowana na nich logika nie wymaga zmian w dającej się przewidzieć przyszłości, a po drugie, gdy wytwarzana jest duża liczba identycznych chipów. Firmy Juniper i Cisco nie produkowałyby tych układów ASIC, nie mając pewności co do dojrzałości technologii 100GbE.

3) Ponieważ firmy Broadcom, Cavium i Mellanox Technologie rozpoczęły produkcję procesorów obsługujących standard 100GbE, a procesory te są już używane w przełącznikach takich producentów jak Dell, Hewlett Packard, Huawei Technologies, Lenovo Group itp. [5]

4) Ponieważ serwery umieszczone w szafach serwerowych są coraz częściej wyposażane w najnowsze karty sieciowe Intel (patrz rysunek 3), z dwoma portami 25-Gigabit, a czasem nawet w konwergentne karty sieciowe z dwoma portami 40-Gigabit (XXV710 i XL710). {Rysunek 3. Najnowsze karty sieciowe Intel: XXV710 i XL710}

5) Ponieważ sprzęt 100GbE jest kompatybilny wstecz, co upraszcza wdrażanie: można ponownie wykorzystać już poprowadzone kable (wystarczy podłączyć do nich nowy transceiver).

Ponadto dostępność 100GbE przygotowuje nas na nowe technologie, takie jak „NVMe over Fabrics” (na przykład Samsung Evo Pro 256 GB NVMe PCIe SSD; patrz rys. 4) [8, 10], „Storage Area Network” (SAN ) / „Software Defined Storage” (patrz rys. 5) [7], RDMA [11], które bez 100GbE nie mogłyby w pełni wykorzystać swojego potencjału.

100GbE: luksus czy niezbędna konieczność?
Rysunek 4. Dysk SSD Samsung Evo Pro 256 GB NVMe PCIe

100GbE: luksus czy niezbędna konieczność?
Rysunek 5. „Sieć pamięci masowej” (SAN) / „Pamięć masowa zdefiniowana programowo”

Wreszcie, jako egzotyczny przykład praktycznego zapotrzebowania na wykorzystanie 100GbE i powiązanych z nim szybkich technologii, możemy przytoczyć chmurę naukową Uniwersytetu w Cambridge (patrz rys. 6), zbudowaną w oparciu o 100GbE (Spectrum przełączniki Ethernet SN2700) – między innymi po to, aby zapewnić wydajną pracę rozproszonej pamięci dyskowej NexentaEdge SDS, która z łatwością może przeciążyć sieć 10/40GbE. [2] Takie wysokowydajne chmury naukowe są wykorzystywane do rozwiązywania szerokiej gamy stosowanych problemów naukowych [9, 12]. Na przykład naukowcy zajmujący się medycyną wykorzystują takie chmury do rozszyfrowania ludzkiego genomu, a kanały 100GbE służą do przesyłania informacji pomiędzy uniwersyteckimi grupami badawczymi.

100GbE: luksus czy niezbędna konieczność?
Rysunek 6. Fragment chmury naukowej Uniwersytetu Cambridge

Bibliografia

  1. Johna Hawkinsa. 100GbE: bliżej krawędzi, bliżej rzeczywistości // jeden.
  2. Amit Katz. Przełączniki 100GbE – czy wykonałeś obliczenia? // jeden.
  3. Małgorzata Rus. 100-gigabitowy Ethernet (100GbE).
  4. Davida Gravesa. Dell EMC podwaja przepustowość 100 Gigabit Ethernet na potrzeby otwartych, nowoczesnych centrów danych // jeden.
  5. Mary Branscombe. Rok 100GbE w sieciach centrów danych // jeden.
  6. Jarreda Bakera. Szybsze poruszanie się w korporacyjnym centrum danych // jeden.
  7. Tomek Clark. Projektowanie sieci pamięci masowej: praktyczne informacje dotyczące wdrażania sieci Fibre Channel i IP SAN. 2003. 572 s.
  8. Jamesa O’Reilly’ego. Pamięć sieciowa: narzędzia i technologie przechowywania danych Twojej firmy // 2017. 280p.
  9. Jamesa Sullivana. Konkurs klastrów studenckich 2017, Team University of Texas w Austin/Texas State University: Odtwarzanie wektoryzacji potencjału wielu ciał Tersoffa w architekturach Intel Skylake i NVIDIA V100 // Obliczenia równoległe. v.79, 2018. s. 30-35.
  10. Manolisa Katevenisa. Następna generacja systemów klasy eksaskalowej: projekt ExaNeSt // Mikroprocesory i mikrosystemy. v.61, 2018. s. 58-71.
  11. Hariego Subramoniego. RDMA przez Ethernet: wstępne badanie // Materiały z warsztatów na temat połączeń wzajemnych o wysokiej wydajności w przetwarzaniu rozproszonym. 2009.
  12. Chrisa Broekemę. Energooszczędne przesyłanie danych w radioastronomii za pomocą oprogramowania UDP RDMA // Systemy komputerowe przyszłej generacji. v.79, 2018. s. 215-224.

PS. Artykuł ten został pierwotnie opublikowany w "Administrator systemu".

W ankiecie mogą brać udział tylko zarejestrowani użytkownicy. Zaloguj się, Proszę.

Dlaczego duże centra danych zaczęły masowo przechodzić na technologię 100GbE?

  • Właściwie nikt się jeszcze nigdzie nie zaczął przeprowadzać...

  • Ponieważ ta technologia dojrzała i stała się tańsza

  • Ponieważ Juniper i Cisco stworzyły układy ASIC dla przełączników 100GbE

  • Ponieważ Broadcom, Cavium i Mellanox Technologie dodały obsługę 100GbE

  • Ponieważ serwery mają teraz porty 25 i 40 gigabitów

  • Twoja wersja (napisz w komentarzu)

Głosowało 12 użytkowników. 15 użytkowników wstrzymało się od głosu.

Źródło: www.habr.com

Dodaj komentarz