Ինչպես Uma.Tech-ը զարգացրեց ենթակառուցվածքը

Մենք գործարկեցինք նոր ծառայություններ, աճեց երթևեկությունը, փոխարինեցինք սերվերները, միացրինք նոր կայքեր և վերանորոգեցինք տվյալների կենտրոնները, և այժմ մենք կպատմենք այս պատմությունը, որի սկիզբը մենք ձեզ ներկայացրեցինք հինգ տարի առաջ:.

Հինգ տարին տիպիկ ժամանակ է միջանկյալ արդյունքների ամփոփման համար: Ուստի մենք որոշեցինք խոսել մեր ենթակառուցվածքների զարգացման մասին, որոնք անցած հինգ տարիների ընթացքում անցել են զարգացման զարմանալիորեն հետաքրքիր ճանապարհ, որով մենք հպարտանում ենք։ Մեր իրականացրած քանակական փոփոխությունները վերածվել են որակականի, այժմ ենթակառուցվածքը կարող է գործել այնպիսի ռեժիմներով, որոնք ֆանտաստիկ էին թվում վերջին տասնամյակի կեսերին։

Մենք ապահովում ենք ամենաբարդ նախագծերի շահագործումը հուսալիության և ծանրաբեռնվածության առավել խիստ պահանջներով, ներառյալ PREMIER-ը և Match TV-ն: Սպորտային հեռարձակումները և հանրահայտ սերիալների պրեմիերան պահանջում են տրաֆիկ տերաբիթ/վրկ, մենք դա հեշտությամբ իրականացնում ենք, և այնքան հաճախ, որ նման արագություններով աշխատելը վաղուց սովորական է դարձել մեզ համար։ Եվ հինգ տարի առաջ մեր համակարգերով աշխատող ամենածանր նախագիծը Rutube-ն էր, որը դրանից հետո զարգացավ, ավելացրեց ծավալներն ու երթևեկությունը, ինչը պետք է հաշվի առնել բեռները պլանավորելիս:

Մենք խոսեցինք այն մասին, թե ինչպես ենք մշակել մեր ենթակառուցվածքի ապարատը (Rutube 2009-2015. մեր սարքավորումների պատմությունը) և մշակել է տեսանյութեր վերբեռնելու համար պատասխանատու համակարգ («Զրո-ից մինչև 700 գիգաբիթ վայրկյանում. ինչպես է Ռուսաստանում վիդեո հոսթինգի ամենամեծ կայքերից մեկը տեսանյութ վերբեռնում»), սակայն այս տեքստերի գրվելուց շատ ժամանակ է անցել, ստեղծվել և ներդրվել են բազմաթիվ այլ լուծումներ, որոնց արդյունքները թույլ են տալիս բավարարել ժամանակակից պահանջները և լինել բավական ճկուն՝ հարմարվելու նոր առաջադրանքներին։

Ինչպես Uma.Tech-ը զարգացրեց ենթակառուցվածքը

Ցանցի միջուկը Մենք անընդհատ զարգանում ենք։ Մենք Cisco-ի սարքավորումներին անցանք 2015 թվականին, ինչի մասին նշել էինք նախորդ հոդվածում։ Այն ժամանակ այն դեռ նույն 10/40G-ն էր, բայց հասկանալի պատճառներով, մի քանի տարի անց նրանք թարմացրին առկա շասսին, և այժմ մենք ակտիվորեն օգտագործում ենք 25/100G:

Ինչպես Uma.Tech-ը զարգացրեց ենթակառուցվածքը

100G հղումները վաղուց ոչ շքեղություն են (ավելի շուտ, դա մեր սեգմենտի ժամանակի հրատապ պահանջն է), ոչ էլ հազվադեպ (ավելի ու ավելի շատ օպերատորներ են կապեր ապահովում նման արագությամբ): Այնուամենայնիվ, 10/40G-ը մնում է արդիական. այս հղումների միջոցով մենք շարունակում ենք միացնել փոքր քանակությամբ տրաֆիկ ունեցող օպերատորներին, որոնց համար ներկայումս աննպատակահարմար է օգտագործել ավելի տարողունակ նավահանգիստ:

Մեր ստեղծած ցանցային միջուկն արժանի է առանձին քննարկման և մի փոքր ուշ կդառնա առանձին հոդվածի թեմա։ Այնտեղ մենք կխորանանք տեխնիկական մանրամասների մեջ և այն ստեղծելիս հաշվի կառնենք մեր գործողությունների տրամաբանությունը։ Բայց հիմա մենք կշարունակենք ավելի սխեմատիկ նկարել ենթակառուցվածքները, քանի որ ձեր ուշադրությունը, հարգելի ընթերցողներ, անսահմանափակ չէ։

Տեսանյութի ելքային սերվերներ արագ զարգանալ, ինչի համար մենք առաջարկում ենք մեծ ջանք: Եթե ​​նախկինում մենք օգտագործում էինք հիմնականում 2U սերվերներ՝ 4-5 ցանցային քարտերով՝ յուրաքանչյուրը 10G պորտով, ապա այժմ տրաֆիկի մեծ մասն ուղարկվում է 1U սերվերներից, որոնք ունեն 2-3 քարտ՝ յուրաքանչյուրը 25G պորտով։ 10G և 25G քարտերը գրեթե հավասար են արժեքով, և ավելի արագ լուծումները թույլ են տալիս փոխանցել ինչպես 10G, այնպես էլ 25G: Արդյունքն ակնհայտ խնայողություն էր. միացման համար ավելի քիչ սերվերի բաղադրիչներ և մալուխներ - ավելի ցածր արժեք (և ավելի բարձր հուսալիություն), բաղադրիչները ավելի քիչ տեղ են զբաղեցնում դարակում. հնարավոր դարձավ մեկ միավորի համար ավելի շատ սերվերներ տեղադրել և, հետևաբար, ավելի ցածր վարձակալության ծախսեր:

Բայց ավելի կարևոր է արագության ձեռքբերումը: Այժմ մենք կարող ենք ուղարկել ավելի քան 1G 100U-ով: Եվ սա այն իրավիճակի ֆոնին, երբ ռուսական որոշ խոշոր նախագծեր 40U-ից 2G ելքը «ձեռքբերում» են անվանում: Մենք կցանկանայինք նրանց խնդիրները:

Ինչպես Uma.Tech-ը զարգացրեց ենթակառուցվածքը

Նկատի ունեցեք, որ մենք դեռ օգտագործում ենք ցանցային քարտերի սերունդ, որոնք կարող են աշխատել միայն 10G-ով: Այս սարքավորումն աշխատում է կայուն և շատ ծանոթ է մեզ, ուստի մենք այն դեն չենք նետել, այլ գտել ենք դրա նոր օգտագործումը։ Մենք տեղադրեցինք այս բաղադրիչները վիդեո պահպանման սերվերներում, որոնց համար մեկ կամ երկու 1G ինտերֆեյս ակնհայտորեն բավարար չէ արդյունավետ աշխատելու համար, այստեղ 10G քարտերը արդիական են դարձել:

Պահպանման համակարգեր նույնպես աճում են: Վերջին հինգ տարիների ընթացքում դրանք տասներկու սկավառակից (12x HDD 2U) փոխվել են երեսունվեց սկավառակի (36x HDD 4U): Ոմանք վախենում են օգտագործել նման տարողունակ «մասերը», քանի որ եթե այդպիսի շասսիներից մեկը ձախողվի, կարող է վտանգ լինել արտադրողականության կամ նույնիսկ գործունակության համար: - ամբողջ համակարգի համար: Բայց մեզ մոտ դա տեղի չի ունենա. մենք տրամադրել ենք տվյալների կրկնօրինակում աշխարհաբաշխված տվյալների մակարդակով: Մենք շասսին բաժանել ենք տվյալների տարբեր կենտրոնների. մենք օգտագործում ենք երեքը ընդհանուր առմամբ, և դա վերացնում է խնդիրների առաջացումը ինչպես շասսիում խափանումների դեպքում, այնպես էլ կայքի անկման դեպքում:

Ինչպես Uma.Tech-ը զարգացրեց ենթակառուցվածքը

Իհարկե, այս մոտեցումը ապարատային RAID-ն ավելորդ դարձրեց, որից մենք հրաժարվեցինք: Վերացնելով ավելորդությունը՝ մենք միաժամանակ բարձրացրինք համակարգի հուսալիությունը՝ պարզեցնելով լուծումը և հեռացնելով ձախողման հավանական կետերից մեկը: Հիշեցնենք, որ մեր պահեստավորման համակարգերը «տնական» են։ Մենք դա արեցինք միանգամայն միտումնավոր և արդյունքից լիովին գոհ էինք։

Տվյալների կենտրոններ Վերջին հինգ տարիների ընթացքում մենք մի քանի անգամ փոխվել ենք։ Նախորդ հոդվածը գրելուց ի վեր մենք չենք փոխել միայն մեկ տվյալների կենտրոն՝ DataLine-ը, մնացածը փոխարինում է պահանջվում, քանի որ մեր ենթակառուցվածքը զարգացել է: Կայքերի միջև բոլոր փոխանցումները նախատեսված էին:

Երկու տարի առաջ մենք գաղթեցինք MMTS-9-ի ներսում՝ տեղափոխվելով բարձրորակ վերանորոգման, լավ հովացման համակարգով, կայուն սնուցմամբ և առանց փոշու տեղամաս, որը նախկինում հաստ շերտերով պատված էր բոլոր մակերևույթների վրա և նաև խցանված էր մեր սարքավորումների ներսը։ . Ընտրեք որակյալ ծառայություններ՝ առանց փոշու: – դարձավ մեր տեղափոխության պատճառը:

Ինչպես Uma.Tech-ը զարգացրեց ենթակառուցվածքը

Գրեթե միշտ «մեկ քայլը հավասար է երկու կրակի», բայց միգրացիայի ժամանակ խնդիրներն ամեն անգամ տարբեր են: Այս անգամ տվյալների մեկ կենտրոնի ներսում տեղաշարժվելու հիմնական դժվարությունը «ապահովվեց» օպտիկական խաչաձև միացումներով՝ դրանց առատությունը հարկերի միջև՝ առանց հեռահաղորդակցության օպերատորների կողմից մեկ խաչաձև միացման մեջ միավորվելու: Խաչաձև կապերի թարմացման և վերափոխման գործընթացը (որոնցով մեզ օգնեցին MMTS-9 ինժեներները) միգրացիայի ամենադժվար փուլն էր:

Երկրորդ միգրացիան տեղի ունեցավ մեկ տարի առաջ, 2019-ին մենք ոչ շատ լավ տվյալների կենտրոնից տեղափոխվեցինք O2xygen։ Տեղափոխման պատճառները նման էին վերևում քննարկվածներին, բայց դրանք լրացվում էին հեռահաղորդակցության օպերատորների համար սկզբնական տվյալների կենտրոնի ոչ գրավիչ լինելու խնդրով. շատ պրովայդերներ ստիպված էին ինքնուրույն «հասնել» այս կետին:

Ինչպես Uma.Tech-ը զարգացրեց ենթակառուցվածքը

13 դարակների միգրացիան դեպի բարձրորակ կայք MMTS-9-ում հնարավորություն տվեց զարգացնել այս վայրը ոչ միայն որպես օպերատորի տեղակայում (մի քանի դարակ և օպերատորների «առաջնորդներ»), այլև օգտագործել այն որպես մեկը: հիմնականները։ Սա փոքր-ինչ պարզեցրեց միգրացիան ոչ շատ լավ տվյալների կենտրոնից. մենք սարքավորումների մեծ մասը տեղափոխեցինք դրանից մեկ այլ կայք, և O2xygen-ին տրվեց զարգացողի դեր՝ այնտեղ ուղարկելով 5 դարակ սարքավորումներով:

Այսօր O2xygen-ն արդեն լիարժեք հարթակ է, որտեղ մեզ անհրաժեշտ օպերատորները «ժամանել են», իսկ նորերը շարունակում են միանալ։ Օպերատորների համար O2xygen-ը գրավիչ է ստացվել նաև ռազմավարական զարգացման տեսանկյունից։

Մենք տեղափոխման հիմնական փուլը միշտ իրականացնում ենք մեկ գիշերվա ընթացքում, և MMTS-9-ի սահմաններում և դեպի O2xygen միգրացիա կատարելիս մենք պահպանում էինք այս կանոնը: Մենք ընդգծում ենք, որ խստորեն հետևում ենք «շարժվել մեկ գիշերվա ընթացքում» կանոնին՝ անկախ դարակաշարերի քանակից: Նույնիսկ նախադեպ եղավ, երբ մենք տեղափոխեցինք 20 դարակ և ավարտեցինք սա նաև մեկ գիշերում։ Միգրացիան բավականին պարզ գործընթաց է, որը պահանջում է ճշգրտություն և հետևողականություն, բայց այստեղ կան որոշ հնարքներ, ինչպես նախապատրաստման գործընթացում, այնպես էլ տեղափոխվելիս և նոր վայր տեղակայելիս: Եթե ​​հետաքրքրված եք, պատրաստ ենք մանրամասն խոսել միգրացիայի մասին։

Արդյունքները Մեզ դուր են գալիս զարգացման հնգամյա ծրագրերը։ Մենք ավարտել ենք անսարքությունների հանդուրժող նոր ենթակառուցվածքի կառուցումը, որը բաշխված է տվյալների երեք կենտրոններում: Մենք կտրուկ ավելացրել ենք երթևեկության խտությունը. եթե վերջերս 40U-ով գոհ էինք 80-2G-ից, ապա հիմա մեզ մոտ նորման 100G-ն է 1U-ով։ Հիմա նույնիսկ մեկ տերաբիթ տրաֆիկ մեր կողմից սովորական է ընկալվում։ Մենք պատրաստ ենք էլ ավելի զարգացնել մեր ենթակառուցվածքները, որոնք ճկուն են և մասշտաբային։

Question: Ինչի՞ մասին պետք է պատմեմ ձեզ հաջորդ տեքստերում, հարգելի ընթերցողներ։ Այն մասին, թե ինչու ենք մենք սկսել ստեղծել տնական տվյալների պահպանման համակարգեր: Ցանցի միջուկի և դրա առանձնահատկությունների մասին: Տվյալների կենտրոնների միջև միգրացիայի հնարքների և նրբությունների մասին: Առաքման որոշումների օպտիմալացման մասին՝ բաղադրիչներ ընտրելով և ճշգրտելով պարամետրերը: Տվյալների կենտրոնի ներսում բազմաթիվ ավելորդությունների և հորիզոնական մասշտաբի հնարավորությունների շնորհիվ կայուն լուծումներ ստեղծելու մասին, որոնք իրականացվում են տվյալների երեք կենտրոնների կառուցվածքում:

Հեղինակ՝ Պետր Վինոգրադով - Uma.Tech-ի տեխնիկական տնօրեն Համստերներ

Source: www.habr.com

Добавить комментарий