100GbE: раскоша ці надзённая неабходнасць?

IEEE P802.3ba, стандарт для перадачы даных па 100-гігабітных каналах Ethernet (100GbE), распрацоўваўся ў перыяд з 2007 па 2010 год [3], але атрымаў шырокі распаўсюд толькі ў 2018 [5]. Чаму менавіта ў 2018, а не раней? І чаму адразу ў масавым парадку? На тое ёсць як мінімум пяць прычын…

100GbE: раскоша ці надзённая неабходнасць?

Распрацоўваўся IEEE P802.3ba, у першую чаргу, для задавальнення патрэб ЦАД і патрэб кропак абмену інтэрнэт-трафікам (паміж незалежнымі аператарамі); а таксама для забеспячэння бесперабойнай працы рэсурсаёмістых вэб-сэрвісаў, такіх як парталы з вялікай колькасцю відэа-кантэнту (напрыклад, YouTube); і для ажыццяўлення высокапрадукцыйных вылічэнняў. [3] Радавыя карыстальнікі Інтэрнэту таксама ўносяць свой уклад у змяненне патрабаванняў да прапускной здольнасці: у многіх ёсць лічбавыя камеры, і людзі хочуць перадаваць зняты імі кантэнт праз Інтэрнэт. В.а. аб'ём цыркулявалага па Інтэрнеце кантэнту з цягам часу становіцца ўсё больш і больш. Як на прафесійным, так і на спажывецкім узроўнях. Ва ўсіх гэтых выпадках, пры перадачы дадзеных з аднаго дамена ў іншы, сукупная прапускная здольнасць ключавых сеткавых вузлоў, ужо даўно перавышае магчымасці партоў 10GbE. [1] Гэтым і абумоўлена з'яўленне новага стандарту: 100GbE.

Буйныя ЦАД і пастаўшчыкі хмарных паслуг ужо актыўна ўжываюць 100GbE, і плануюць праз пару гадоў паступова пераходзіць на 200GbE і 400GbE. Пры гэтым ужо прыглядаюцца да хуткасцяў, якія перавышаюць тэрабіт. [6] Хоць ёсць сярод буйных пастаўшчыкоў і такія, якія пераходзяць на 100GbE толькі толькі ў мінулым годзе (напрыклад, Microsoft Azure). ЦАД, якія ажыццяўляюць высокапрадукцыйныя вылічэнні для фінансавых паслуг, дзяржаўных платформ, нафтагазавых платформ і камунальных паслуг, - таксама пачалі пераходзіць на 100GbE. [5]

У карпаратыўных ЦАД запатрабаванне на прапускную здольнасць некалькі ніжэй: толькі нядаўна 10GbE стала тут надзённай неабходнасцю, а не раскошай. Аднак, паколькі тэмпы спажывання трафіку растуць усё імклівей, сумнеўна, што 10GbE пражыве ў карпаратыўных ЦАД хаця б 10 ці нават 5 гадоў. Замест гэтага мы ўбачым хуткі пераход на 25GbE і яшчэ хутчэйшы на 100GbE. [6] Таму што, як адзначаюць аналітыкі Intel, інтэнсіўнасць трафіку ўнутры ЦАД штогод павялічваецца на 25%. [5]

Аналітыкі Dell і Hewlett Packard канстатуюць [4], што 2018-ы год - гэта год 100GbE для ЦАД. Яшчэ ў жніўні 2018-га года пастаўкі абсталявання 100GbE ўдвая перавысілі пастаўкі за ўвесь 2017 год. І тэмпы паставак працягваюць расці, паколькі ЦАД пачалі ў масавым парадку адыходзіць ад 40GbE. Чакаецца, што да 2022 года штогод будзе пастаўляцца 19,4 млн. 100GbE-партоў (у 2017, для параўнання, гэтая лічба складала 4,6 млн.). [4] Што да выдаткаў, то ў 2017 годзе на 100GbE-парты было выдаткавана $7 млрд., а ў 2020-м, паводле прагнозаў, будзе выдаткавана каля $20 млрд (гл. мал. 1). [1]

100GbE: раскоша ці надзённая неабходнасць?
Малюнак 1. Статыстыка і прагнозы попыту на сеткавае абсталяванне

Чаму зараз? 100GbE не такая ўжо і новая тэхналогія, дык чаму менавіта цяпер вакол яе разгортваецца такі ажыятаж?

1) Таму што гэтая тэхналогія саспела і патаннела. Менавіта ў 2018 годзе мы перасягнулі тую мяжу, калі выкарыстанне ў ЦАД платформ са 100-гігабітнымі партамі стала больш рэнтабельным, чым «штабеліраванне» некалькіх 10-гігабітных платформ. Прыклад: Ciena 5170 (гл. мал. 2) - кампактная платформа, якая забяспечвае сукупную прапускную здольнасць у 800GbE (4x100GbE, 40x10GbE). Калі для забеспячэння неабходнай прапускной здольнасці патрабуецца некалькі 10-гігабітных партоў, то выдаткі на дадатковае жалеза, дадаткова займаемую прастору, залішняе спажыванне электраэнергіі, бягучае абслугоўванне, дадатковыя запчасткі і дадатковыя сістэмы астуджэння, складаюцца ў досыць кругленькую суму. [1] Так напрыклад, спецыялісты Hewlett Packard, аналізуючы патэнцыйныя перавагі пераходу ад 10GbE да 100GbE прыйшлі да наступных лічбаў: прадукцыйнасць вышэй (на 56%), сумарныя выдаткі менш (на 27%), менш спажыванне электраэнергіі (на 31%), спрашчэнне кабельных узаемасувязяў (на 38%). [5]

100GbE: раскоша ці надзённая неабходнасць?
Малюнак 2. Ciena 5170: прыклад платформы са 100-гігабітнымі партамі

2) Juniper і Cisco стварылі свае ўласныя мікрасхемы ASIC для камутатараў 100GbE. [5] Што з'яўляецца красамоўным пацверджаннем таго факту, што тэхналогія 100GbE – сапраўды саспела. Справа ў тым, што мікрасхемы ASIC рэнтабельна ствараць толькі тады, калі, па-першае, якая рэалізуецца на іх логіка – не запатрабуе змен, у агляднай будучыні, і па-другое, калі вырабляецца вялікая колькасць ідэнтычных мікрасхем. Juniper і Cisco не сталі б вырабляць гэтыя ASIC, не будучы ўпэўненымі ў сталасці 100GbE.

3) Таму што Broadcom, Cavium, і Mellanox Technologie пачалі штампаваць працэсары з падтрымкай 100GbE, і гэтыя працэсары ўжо выкарыстоўваюцца ў камутатарах такіх вытворцаў, як Dell, Hewlett Packard, Huawei Technologies, Lenovo Group і інш.

4) Таму што серверы, размешчаныя ў серверных стойках, усё часцей абсталёўваюцца найноўшымі сеткавымі адаптарамі Intel (гл. мал. 3), з двума 25-гігабітнымі партамі, а часам нават канвергентнымі сеткавымі адаптарамі з двума 40-гігабітнымі партамі (XXV710 і XL) . {Малюнак 710. Найноўшыя сеткавыя адаптары Intel: XXV3 і XL710}

5) Таму што абсталяванне 100GbE мае зваротную сумяшчальнасць, што спрашчае разгортванне: можна паўторна выкарыстоўваць ужо пракінутыя кабелі (досыць падлучыць да іх новы прыёма-перадатчык).

Акрамя таго, даступнасць 100GbE падрыхтоўвае нас да новых тэхналогій, такім як "NVMe over Fabrics" (напрыклад, Samsung Evo Pro 256 GB NVMe PCIe SSD; гл. мал. 4) [8, 10], "Storage Area Network" (SAN) / "Software Defined Storage" (гл. Мал. 5) [7], RDMA [11], якія без 100GbE не маглі рэалізаваць свой патэнцыял у поўнай меры.

100GbE: раскоша ці надзённая неабходнасць?
Малюнак 4. Samsung Evo Pro 256 GB NVMe PCIe SSD

100GbE: раскоша ці надзённая неабходнасць?
Малюнак 5. "Storage Area Network" (SAN) / "Software Defined Storage"

Нарэшце, у якасці экзатычнага прыкладу практычнай запатрабаванасці ўжывання 100GbE і сумежных высакахуткасных тэхналогій, можна прывесці навуковае воблака Кембрыджскага ўніверсітэта (гл. мал. 6), якое пабудавана на аснове 100GbE (Spectrum SN2700 Ethernet switches), – для таго забяспечваць эфектыўную працу размеркаванага дыскавага сховішча NexentaEdge SDS, якое лёгка можа перагрузіць сетку 10/40GbE. [2] Падобныя высокапрадукцыйныя навуковыя аблокі разгортваюць для рашэння самых разнастайных прыкладных навуковых задач [9, 12]. Так напрыклад, навукоўцы-медыкі задзейнічаюць такія аблокі для расшыфроўкі геному чалавека, а каналы 100GbE выкарыстоўваюць для перадачы інфармацыі паміж даследчымі групамі ўніверсітэтаў.

100GbE: раскоша ці надзённая неабходнасць?
Малюнак 6. Фрагмент навуковага аблокі Кембрыджскага універсітэта

Бібліяграфія

  1. John Hawkins. 100GbE: Closer to the Edge, Closer to Reality // 2017.
  2. Amit Katz. 100GbE Switches - Have You Done The Math? // 2016.
  3. Margaret Rouse. 100 Gigabit Ethernet (100GbE).
  4. David Graves. Dell EMC Doubles Down on 100 Gigabit Ethernet для Open, Modern Data Center // 2018.
  5. Mary Branscombe. The Year of 100GbE in Data Center Networks // 2018.
  6. Jarred Baker. Прадстаўляючы фастрый у Enterprise Data Center // 2017.
  7. Tom Clark. Designing Storage Area Networks: Практычная рэферэнцыя па ажыццяўленні Fibre Channel and IP SANs. 2003. 572p.
  8. James O'Reilly. Network Storage: Tools and Technologies для Storing Your Company's Data // 2017. 280p.
  9. James Sullivan. Студэнт cluster competition 2017, Team University of Texas ў Аўстыне/Тэксас State University: Reproducing vectorization of Tersoff multi-body патэнцыял на Intel Skylake і NVIDIA V100 architectures // Parallel Computing. v.79, 2018. pp. 30-35.
  10. Manolis Katevenis. Next Generation of Exascale-class Systems: The ExaNeSt Project // Microprocessors and Microsystems. v.61, 2018. pp. 58-71.
  11. Hari Subramoni. RDMA праз Ethernet: А папярэднія сцэнары // Працыс сцэнараў на High Performance Interconnects for Distributed Computing. 2009.
  12. Chris Broekema. Energy-Efficient Data Transfers у Radio Astronomy with Software UDP RDMA // Future Generation Computer Systems. v.79, 2018. pp. 215-224.

PS. Першапачаткова артыкул быў апублікаваны ў "Сістэмным адміністратары".

Толькі зарэгістраваныя карыстачы могуць удзельнічаць у апытанні. Увайдзіце, Калі ласка.

Чаму буйныя ЦАДы пачалі масава пераходзіць на 100GbE?

  • Наогул ніхто нікуды яшчэ не пачаў пераходзіць…

  • Таму што гэтая тэхналогія саспела і патаннела

  • Таму што Juniper і Cisco стварылі ASIC'і для камутатараў 100GbE

  • Таму што Broadcom, Cavium і Mellanox Technologie дадалі падтрымку 100GbE.

  • Таму што ў серверах павіліся 25- і 40-гігабітныя парты

  • Свая версія (напішыце ў каментарах)

Прагаласавалі 12 карыстальнікаў. Устрымаліся 15 карыстальнікаў.

Крыніца: habr.com

Дадаць каментар