100 ԳբԷ. շքեղությո՞ւն, թե՞ էական անհրաժեշտություն:

IEEE P802.3ba՝ 100 Gigabit Ethernet (100GbE) միջոցով տվյալների փոխանցման ստանդարտ, մշակվել է 2007-ից 2010 թվականներին [3], բայց լայն տարածում է գտել միայն 2018 թվականին [5]: Ինչու՞ 2018 թվականին և ոչ ավելի վաղ: Իսկ ինչու՞ անմիջապես խմբով: Դրա համար առնվազն հինգ պատճառ կա...

100 ԳբԷ. շքեղությո՞ւն, թե՞ էական անհրաժեշտություն:

IEEE P802.3ba-ն ստեղծվել է հիմնականում տվյալների կենտրոնների և ինտերնետ տրաֆիկի փոխանակման կետերի կարիքները բավարարելու համար (անկախ օպերատորների միջև); ինչպես նաև ապահովել ռեսուրսային ինտենսիվ վեբ ծառայությունների անխափան աշխատանքը, ինչպիսիք են մեծ քանակությամբ տեսաբովանդակությամբ պորտալները (օրինակ՝ YouTube); և բարձր կատարողական հաշվարկների համար: [3] Ինտերնետից սովորական օգտվողները նույնպես նպաստում են թողունակության պահանջների փոփոխմանը. շատերն ունեն թվային տեսախցիկներ, և մարդիկ ցանկանում են հեռարձակել իրենց նկարահանած բովանդակությունը ինտերնետով: Դա. Ինտերնետում շրջանառվող բովանդակության ծավալը ժամանակի ընթացքում ավելի ու ավելի մեծ է դառնում: Ինչպես պրոֆեսիոնալ, այնպես էլ սպառողական մակարդակներում: Այս բոլոր դեպքերում, երբ տվյալների փոխանցումը մի տիրույթից մյուսը, հիմնական ցանցային հանգույցների ընդհանուր թողունակությունը վաղուց գերազանցել է 10 ԳբԷ պորտերի հնարավորությունները: [1] Սա է նոր ստանդարտի առաջացման պատճառը՝ 100 ԳբԷ։

Խոշոր տվյալների կենտրոնները և ամպային ծառայություններ մատուցողներն արդեն ակտիվորեն օգտագործում են 100 ԳբԷ, և պլանավորում են մի քանի տարի հետո աստիճանաբար անցնել 200 ԳբԷ և 400 ԳբԷ: Ընդ որում, նրանք արդեն դիտարկում են տերաբիթը գերազանցող արագությունները։ [6] Չնայած կան որոշ խոշոր մատակարարներ, որոնք միայն անցյալ տարի են տեղափոխվում 100 ԳբԷ (օրինակ՝ Microsoft Azure): Տվյալների կենտրոնները, որոնք աշխատում են ֆինանսական ծառայությունների, պետական ​​հարթակների, նավթի և գազի հարթակների և կոմունալ ծառայությունների համար, նույնպես սկսել են տեղափոխվել մինչև 100 ԳբԷ: [5]

Ձեռնարկությունների տվյալների կենտրոններում թողունակության պահանջարկը փոքր-ինչ ավելի ցածր է. միայն վերջերս 10 ԳբԷ-ն այստեղ դարձել է ոչ թե շքեղություն, այլ անհրաժեշտություն: Այնուամենայնիվ, քանի որ երթևեկության սպառման տեմպերն ավելի ու ավելի արագ են աճում, կասկածելի է, որ 10 ԳբԷ-ն կապրի ձեռնարկությունների տվյալների կենտրոններում առնվազն 10 կամ նույնիսկ 5 տարի: Փոխարենը, մենք կտեսնենք արագ շարժ դեպի 25 ԳբԷ և էլ ավելի արագ շարժ դեպի 100 ԳբԷ: [6] Քանի որ, ինչպես նշում են Intel-ի վերլուծաբանները, տվյալների կենտրոնի ներսում տրաֆիկի ինտենսիվությունը տարեկան աճում է 25%-ով։ [5]

Dell-ի և Hewlett Packard-ի վերլուծաբանները [4] նշում են, որ 2018 թվականը տվյալների կենտրոնների համար 100 ԳբԷ-ի տարի է։ Դեռևս 2018 թվականի օգոստոսին 100 ԳբԷ սարքավորումների մատակարարումները երկու անգամ ավելի շատ էին, քան ամբողջ 2017 թվականի մատակարարումները։ Իսկ առաքումների տեմպերը շարունակում են արագանալ, քանի որ տվյալների կենտրոնները սկսում են հեռանալ 40 ԳբԷ-ից: Ակնկալվում է, որ մինչև 2022 թվականը տարեկան կառաքվի 19,4 միլիոն 100 ԳբԷ պորտ (2017 թվականին, համեմատության համար, այս ցուցանիշը 4,6 միլիոն էր)։ [4] Ինչ վերաբերում է ծախսերին, ապա 2017 թվականին 100 ԳբԷ պորտերի վրա ծախսվել է 7 միլիարդ դոլար, իսկ 2020 թվականին, ըստ կանխատեսումների, կծախսվի մոտ 20 միլիարդ դոլար (տե՛ս նկ. 1)։ [1]

100 ԳբԷ. շքեղությո՞ւն, թե՞ էական անհրաժեշտություն:
Նկար 1. Ցանցային սարքավորումների պահանջարկի վիճակագրություն և կանխատեսումներ

Ինչու՞ հիմա: 100GbE-ն այնքան էլ նոր տեխնոլոգիա չէ, ուստի ինչու՞ է այժմ դրա շուրջ այդքան աղմուկ բարձրանում:

1) Քանի որ այս տեխնոլոգիան հասունացել և էժանացել է: Հենց 2018 թվականին մենք հատեցինք սահմանագիծը, երբ տվյալների կենտրոնում 100 Գիգաբիթ պորտերով պլատֆորմների օգտագործումը դարձավ ավելի ծախսարդյունավետ, քան մի քանի 10 Գիգաբիթանոց հարթակներ «դասավորելը»: Օրինակ՝ Ciena 5170-ը (տես Նկար 2) կոմպակտ հարթակ է, որն ապահովում է 800 ԳբԷ (4x100 ԳբԷ, 40х10 ԳբԷ) ընդհանուր թողունակություն: Եթե ​​անհրաժեշտ թողունակությունն ապահովելու համար պահանջվում են մի քանի 10 գիգաբիթ պորտեր, ապա լրացուցիչ սարքավորումների, լրացուցիչ տարածքի, էներգիայի ավելցուկ սպառման, ընթացիկ սպասարկման, լրացուցիչ պահեստամասերի և հովացման լրացուցիչ համակարգերի ծախսերը բավականին կոկիկ գումար են կազմում: [1] Օրինակ, Hewlett Packard-ի մասնագետները, վերլուծելով 10GbE-ից 100GbE տեղափոխման հնարավոր օգուտները, եկան հետևյալ թվերի՝ ավելի բարձր կատարողականություն (56%), ավելի ցածր ընդհանուր ծախսեր (27%), ցածր էներգիայի սպառում (31%), պարզեցված մալուխային միացումներ (38%-ով): [5]

100 ԳբԷ. շքեղությո՞ւն, թե՞ էական անհրաժեշտություն:
Նկար 2. Ciena 5170. օրինակ հարթակ 100 Գիգաբիթ պորտով

2) Juniper-ը և Cisco-ն վերջապես ստեղծել են իրենց սեփական ASIC-ները 100 ԳբԷ անջատիչների համար: [5] Ինչը պերճախոս հաստատում է այն փաստի, որ 100GbE տեխնոլոգիան իսկապես հասունացել է: Փաստն այն է, որ ASIC չիպերի ստեղծումը ծախսարդյունավետ է միայն այն դեպքում, երբ, նախ, դրանց վրա ներդրված տրամաբանությունը տեսանելի ապագայում փոփոխություններ չի պահանջում, և երկրորդ, երբ արտադրվում են մեծ թվով միանման չիպեր: Juniper-ը և Cisco-ն չեն արտադրի այս ASIC-ները՝ առանց վստահ լինելու 100 ԳբԷ հասունության մեջ:

3) Քանի որ Broadcom-ը, Cavium-ը և Mellanox Technologie-ն սկսել են արտադրել 100 ԳբԷ աջակցությամբ պրոցեսորներ, և այդ պրոցեսորներն արդեն օգտագործվում են այնպիսի արտադրողների փոխարկիչներում, ինչպիսիք են Dell-ը, Hewlett Packard-ը, Huawei Technologies-ը, Lenovo Group-ը և այլն: [5]

4) Քանի որ սերվերների դարակաշարերում տեղակայված սերվերներն ավելի ու ավելի են համալրվում Intel-ի վերջին ցանցային ադապտերներով (տես Նկար 3), երկու 25-Գիգաբիթանոց պորտերով, և երբեմն նույնիսկ համակցված ցանցային ադապտերներով երկու 40-Գիգաբիթ պորտերով (XXV710 և XL710): {Նկար 3. Վերջին Intel NIC-ները՝ XXV710 և XL710}

5) Քանի որ 100 ԳբԷ սարքավորումը հետին համատեղելի է, ինչը հեշտացնում է տեղակայումը. դուք կարող եք նորից օգտագործել արդեն անցած մալուխները (պարզապես միացրեք նոր հաղորդիչ նրանց):

Բացի այդ, 100 ԳբԷ հասանելիությունը մեզ նախապատրաստում է նոր տեխնոլոգիաների, ինչպիսիք են «NVMe գործվածքների վրա» (օրինակ՝ Samsung Evo Pro 256 ԳԲ NVMe PCIe SSD; տես Նկար 4) [8, 10], «Պահպանման տարածքի ցանց» (SAN): ) / «Software Defined Storage» (տես նկ. 5) [7], RDMA [11], որոնք առանց 100GbE-ի չէին կարող իրացնել իրենց ողջ ներուժը։

100 ԳբԷ. շքեղությո՞ւն, թե՞ էական անհրաժեշտություն:
Նկար 4. Samsung Evo Pro 256 GB NVMe PCIe SSD

100 ԳբԷ. շքեղությո՞ւն, թե՞ էական անհրաժեշտություն:
Նկար 5. «Պահպանման տարածքի ցանց» (SAN) / «Ծրագրային ապահովման սահմանված պահեստավորում»

Վերջապես, որպես 100 ԳբԷ և հարակից գերարագ տեխնոլոգիաների օգտագործման գործնական պահանջարկի էկզոտիկ օրինակ, մենք կարող ենք մեջբերել Քեմբրիջի համալսարանի գիտական ​​ամպը (տես Նկար 6), որը կառուցված է 100 ԳբԷ (Spectrum) հիման վրա։ SN2700 Ethernet անջատիչներ) - որպեսզի, ի թիվս այլ բաների, ապահովվի NexentaEdge SDS բաշխված սկավառակի պահեստավորման արդյունավետ աշխատանքը, որը կարող է հեշտությամբ ծանրաբեռնել 10/40 ԳբԷ ցանցը: [2] Նման բարձր արդյունավետությամբ գիտական ​​ամպերը կիրառվում են կիրառական գիտական ​​խնդիրների լայն տեսականի լուծելու համար [9, 12]: Օրինակ՝ բժշկական գիտնականներն օգտագործում են նման ամպեր՝ մարդու գենոմը վերծանելու համար, իսկ 100 ԳբԷ ալիքները՝ համալսարանական հետազոտական ​​խմբերի միջև տեղեկատվություն փոխանցելու համար։

100 ԳբԷ. շքեղությո՞ւն, թե՞ էական անհրաժեշտություն:
Նկար 6. Քեմբրիջի համալսարանի գիտական ​​ամպի հատված

Մատենագիտություն

  1. Ջոն Հոքինս. 100 ԳբԷ՝ ավելի մոտ եզրին, ավելի մոտ իրականությանը // 2017 թ.
  2. Ամիտ Կաց. 100 ԳբԷ անջատիչներ – Դուք արե՞լ եք մաթեմատիկան: // 2016 թ.
  3. Մարգարետ Ռոուզ. 100 Գիգաբիթ Ethernet (100 ԳբԷ).
  4. Դեյվիդ Գրեյվզ. Dell EMC-ը կրկնապատկում է 100 Գիգաբիթանոց Ethernet-ը բաց, ժամանակակից տվյալների կենտրոնի համար // 2018 թ.
  5. Մերի Բրանսքոմբ. 100 ԳբԷ տարի տվյալների կենտրոնների ցանցերում // 2018 թ.
  6. Ջարեդ Բեյքեր. Ավելի արագ շարժվել Ձեռնարկությունների տվյալների կենտրոնում // 2017 թ.
  7. Թոմ Քլարկ. Պահպանման տարածքի ցանցերի նախագծում. գործնական հղում օպտիկամանրաթելային ալիքների և IP SAN-ների ներդրման համար: 2003. 572 p.
  8. Ջեյմս Օ'Ռեյլի. Ցանցային պահեստավորում. գործիքներ և տեխնոլոգիաներ ձեր ընկերության տվյալների պահպանման համար // 2017. 280p.
  9. Ջեյմս Սալիվան. Ուսանողների կլաստերի մրցույթ 2017, Տեխասի թիմային համալսարան Օսթինում/Տեխասի պետական ​​համալսարանում. Tersoff բազմամարմին ներուժի վերարտադրում Intel Skylake և NVIDIA V100 ճարտարապետություններում // Զուգահեռ հաշվարկ: v.79, 2018. pp. 30-35 թթ.
  10. Մանոլիս Կատեվենիս. Exascale դասի համակարգերի հաջորդ սերունդը. ExaNeSt նախագիծը // Միկրոպրոցեսորներ և միկրոհամակարգեր: v.61, 2018. pp. 58-71 թթ.
  11. Հարի Սուբրամոնի. RDMA Ethernet-ի միջոցով. նախնական ուսումնասիրություն // Բաշխված հաշվարկների համար բարձր արդյունավետության փոխկապակցման աշխատաժողովի նյութեր: 2009 թ.
  12. Քրիս Բրուկեմա. Էներգաարդյունավետ տվյալների փոխանցում ռադիոաստղագիտության մեջ UDP RDMA ծրագրաշարով // Ապագա սերնդի համակարգչային համակարգեր. v.79, 2018. pp. 215-224 թթ.

Ետգրություն Այս հոդվածը սկզբնապես հրապարակվել է «Համակարգի ադմինիստրատոր».

Հարցմանը կարող են մասնակցել միայն գրանցված օգտվողները։ Մուտք գործել, խնդրում եմ:

Ինչու՞ մեծ տվյալների կենտրոնները սկսեցին զանգվածաբար տեղափոխվել 100 ԳբԷ:

  • Փաստորեն, դեռ ոչ ոք ոչ մի տեղ չի սկսել շարժվել...

  • Որովհետև այս տեխնոլոգիան հասունացել և էժանացել է

  • Քանի որ Juniper-ը և Cisco-ն ստեղծեցին ASIC-ներ 100 ԳբԷ հզորությամբ անջատիչների համար

  • Քանի որ Broadcom-ը, Cavium-ը և Mellanox Technologie-ն ավելացրել են 100 ԳբԷ աջակցություն

  • Քանի որ սերվերներն այժմ ունեն 25 և 40 գիգաբիթ պորտեր

  • Ձեր տարբերակը (գրեք մեկնաբանություններում)

Քվեարկել է 12 օգտատեր։ 15 օգտատեր ձեռնպահ է մնացել։

Source: www.habr.com

Добавить комментарий