100GbE: лукс или основна необходимост?

IEEE P802.3ba, стандарт за предаване на данни през 100 Gigabit Ethernet (100GbE), беше разработен между 2007 г. и 2010 г. [3], но стана широко разпространен едва през 2018 г. [5]. Защо през 2018 г., а не по-рано? И защо веднага на тълпи? Има поне пет причини за това...

100GbE: лукс или основна необходимост?

IEEE P802.3ba е разработен предимно за нуждите на центровете за данни и нуждите на точките за обмен на интернет трафик (между независими оператори); както и за осигуряване на непрекъсната работа на ресурсоемки уеб услуги, като портали с голямо количество видео съдържание (например YouTube); и за високопроизводителни изчисления. [3] Обикновените интернет потребители също допринасят за променящите се изисквания за честотна лента: много хора имат цифрови фотоапарати и хората искат да предават поточно съдържанието, което заснемат, през интернет. Че. Обемът на съдържанието, циркулиращо в Интернет, става все по-голям и по-голям с течение на времето. Както на професионално, така и на потребителско ниво. Във всички тези случаи, при прехвърляне на данни от един домейн към друг, общата пропускателна способност на ключови мрежови възли отдавна е надхвърлила възможностите на 10GbE портовете. [1] Това е причината за появата на нов стандарт: 100GbE.

Големи центрове за данни и доставчици на облачни услуги вече активно използват 100GbE и планират постепенно да преминат към 200GbE и 400GbE след няколко години. В същото време те вече гледат на скорости надвишаващи терабита. [6] Въпреки че има някои големи доставчици, които преминават към 100GbE едва миналата година (например Microsoft Azure). Центровете за данни, работещи с високопроизводителни изчисления за финансови услуги, правителствени платформи, петролни и газови платформи и комунални услуги също започнаха да преминават към 100GbE. [5]

В корпоративните центрове за данни търсенето на честотна лента е малко по-ниско: едва наскоро 10GbE се превърна в необходимост, а не в лукс тук. Въпреки това, тъй като скоростта на потребление на трафик нараства все по-бързо, е съмнително, че 10GbE ще живее в корпоративните центрове за данни поне 10 или дори 5 години. Вместо това ще видим бързо преминаване към 25GbE и още по-бързо преминаване към 100GbE. [6] Тъй като, както отбелязват анализаторите на Intel, интензивността на трафика в центъра за данни се увеличава годишно с 25%. [5]

Анализатори от Dell и Hewlett Packard заявяват [4], че 2018 е годината на 100GbE за центровете за данни. През август 2018 г. доставките на 100GbE оборудване бяха два пъти по-високи от доставките за цялата 2017 г. Темпото на доставките продължава да се ускорява, тъй като центровете за данни започват масово да се отдалечават от 40GbE. Очаква се до 2022 г. да се доставят 19,4 милиона 100GbE порта годишно (през 2017 г. за сравнение тази цифра беше 4,6 милиона). [4] Що се отнася до разходите, през 2017 г. 100 милиарда долара са похарчени за 7GbE портове, а през 2020 г., според прогнозите, ще бъдат похарчени около 20 милиарда долара (виж фиг. 1). [1]

100GbE: лукс или основна необходимост?
Фигура 1. Статистика и прогнози за търсенето на мрежово оборудване

Защо сега? 100GbE не е точно нова технология, така че защо сега има толкова много шум около нея?

1) Защото тази технология е узряла и е станала по-евтина. През 2018 г. прекрачихме границата, когато използването на платформи със 100-гигабитови портове в центъра за данни стана по-рентабилно от „подреждането“ на няколко 10-гигабитови платформи. Пример: Ciena 5170 (вижте Фигура 2) е компактна платформа, която осигурява обща пропускателна способност от 800GbE (4x100GbE, 40x10GbE). Ако са необходими множество 10-гигабитови портове, за да осигурят необходимата пропускателна способност, тогава разходите за допълнителен хардуер, допълнително пространство, излишна консумация на енергия, текуща поддръжка, допълнителни резервни части и допълнителни системи за охлаждане се натрупват до доста солидна сума. [1] Например специалистите на Hewlett Packard, анализирайки потенциалните ползи от преминаването от 10GbE към 100GbE, стигнаха до следните цифри: по-висока производителност (56%), по-ниски общи разходи (27%), по-ниска консумация на енергия (31%), опростяване на кабелните връзки (с 38%). [5]

100GbE: лукс или основна необходимост?
Фигура 2. Ciena 5170: примерна платформа със 100 Gigabit портове

2) Juniper и Cisco най-накрая създадоха свои собствени ASIC за 100GbE комутатори. [5] Което е красноречиво потвърждение на факта, че 100GbE технологията е наистина зряла. Факт е, че е рентабилно да се създават ASIC чипове само когато, първо, логиката, внедрена върху тях, не изисква промени в обозримо бъдеще, и второ, когато се произвеждат голям брой идентични чипове. Juniper и Cisco не биха произвеждали тези ASIC без да са уверени в зрелостта на 100GbE.

3) Тъй като Broadcom, Cavium и Mellanox Technologie започнаха да произвеждат процесори с поддръжка на 100GbE и тези процесори вече се използват в комутатори от производители като Dell, Hewlett Packard, Huawei Technologies, Lenovo Group и др. [5]

4) Тъй като сървърите, разположени в сървърни стелажи, са все по-оборудвани с най-новите мрежови адаптери на Intel (вижте Фигура 3), с два 25-гигабитови порта и понякога дори конвергентни мрежови адаптери с два 40-гигабитови порта (XXV710 и XL710). {Фигура 3. Най-новите Intel NIC: XXV710 и XL710}

5) Тъй като 100GbE оборудването е обратно съвместимо, което опростява внедряването: можете да използвате повторно вече прекарани кабели (просто свържете нов трансивър към тях).

В допълнение, наличието на 100GbE ни подготвя за нови технологии като „NVMe over Fabrics“ (например Samsung Evo Pro 256 GB NVMe PCIe SSD; вижте фиг. 4) [8, 10], „Мрежа за съхранение“ (SAN ) / „Софтуерно дефинирано съхранение“ (вижте фиг. 5) [7], RDMA [11], които без 100GbE не биха могли да реализират пълния си потенциал.

100GbE: лукс или основна необходимост?
Фигура 4. Samsung Evo Pro 256 GB NVMe PCIe SSD

100GbE: лукс или основна необходимост?
Фигура 5. „Мрежа за съхранение“ (SAN) / „Софтуерно дефинирано съхранение“

И накрая, като екзотичен пример за практическото търсене на използването на 100GbE и свързаните с тях високоскоростни технологии, можем да цитираме научния облак на университета в Кеймбридж (виж фиг. 6), който е изграден на базата на 100GbE (Spectrum SN2700 Ethernet комутатори) - за да се гарантира, наред с други неща, ефективна работа на NexentaEdge SDS разпределено дисково хранилище, което може лесно да претовари 10/40GbE мрежа. [2] Такива високоефективни научни облаци се използват за решаване на голямо разнообразие от приложни научни проблеми [9, 12]. Например, медицинските учени използват такива облаци, за да дешифрират човешкия геном, а 100GbE каналите се използват за пренос на информация между университетски изследователски групи.

100GbE: лукс или основна необходимост?
Фигура 6. Фрагмент от научния облак на университета в Кеймбридж

библиография

  1. Джон Хокинс. 100GbE: По-близо до ръба, по-близо до реалността // 2017 г.
  2. Амит Кац. 100GbE комутатори – направихте ли сметка? // 2016 г.
  3. Маргарет Роуз. 100 Gigabit Ethernet (100GbE).
  4. Дейвид Грейвс. Dell EMC удвоява 100 Gigabit Ethernet за отворен, модерен център за данни // 2018 г.
  5. Мери Бранскомб. Годината на 100GbE в мрежите на центрове за данни // 2018 г.
  6. Джаред Бейкър. Движение по-бързо в корпоративния център за данни // 2017 г.
  7. Том Кларк. Проектиране на мрежи за съхранение: Практически справочник за внедряване на Fibre Channel и IP SAN. 2003. 572p.
  8. Джеймс О'Райли. Мрежово съхранение: Инструменти и технологии за съхранение на данни на вашата компания // 2017. 280p.
  9. Джеймс Съливан. Състезание за студентски клъстери 2017, Отборен университет на Тексас в Остин/Тексаски държавен университет: Възпроизвеждане на векторизация на потенциала на много тела на Tersoff върху архитектурите Intel Skylake и NVIDIA V100 // Паралелно изчисление. т.79, 2018 г. стр. 30-35.
  10. Манолис Катевенис. Следващото поколение системи от клас Exascale: проектът ExaNeSt // Микропроцесори и микросистеми. т.61, 2018. стр. 58-71.
  11. Хари Субрамони. RDMA през Ethernet: Предварително проучване // Доклади на семинара за високопроизводителни връзки за разпределени изчисления. 2009 г.
  12. Крис Брукема. Енергийно ефективни трансфери на данни в радиоастрономията със софтуер UDP RDMA // Компютърни системи от бъдещо поколение. т.79, 2018 г. стр. 215-224.

PS. Статията е публикувана първоначално в "Системен администратор".

В анкетата могат да участват само регистрирани потребители. Впиши се, Моля те.

Защо големите центрове за данни започнаха масово да преминават към 100GbE?

  • Всъщност още никой никъде не е започнал да се мести...

  • Защото тази технология узря и стана по-евтина

  • Защото Juniper и Cisco създадоха ASIC за 100GbE комутатори

  • Тъй като Broadcom, Cavium и Mellanox Technologie добавиха 100GbE поддръжка

  • Защото сървърите вече имат 25- и 40-гигабитови портове

  • Вашата версия (пишете в коментарите)

12 потребители гласуваха. 15 потребители се въздържаха.

Източник: www.habr.com

Добавяне на нов коментар