Як дата-цэнтры ратуюць святы

Як дата-цэнтры ратуюць святы

На працягу года расіяне рэгулярна адпраўляюцца на святы - навагоднія канікулы, майскія і іншыя менш працяглыя выхадныя. А гэты традыцыйны час для серыяльных марафонаў, спантанных пакупак і распродажаў на Steam. У перадсвяточны перыяд павышаную нагрузку адчувае рэтэйл і лагістычныя кампаніі: людзі заказваюць падарункі ў Інтэрнэт-крамах, аплачваюць іх дастаўку, купляюць білеты для паездак, размаўляюць. Каляндарныя пікі попыту з'яўляюцца добрым стрэс-тэстам і для анлайн-кінатэатраў, гульнявых парталаў, відэа-хостынгаў і стрымінгавых музычных сэрвісаў – у святы ўсе яны працуюць "на знос".

Распавядаем, як арганізавана забеспячэнне бесперабойнай даступнасці кантэнту на прыкладзе анлайн-кінатэатра Okko, які абапіраецца ў сваёй працы на магутнасці дата-цэнтра Linxdatacenter.

Раней пад сезонныя скачы спажывання набывалася дадатковае абсталяванне для лакальнага размяшчэння, прычым "з запасам". Аднак, калі "Час Ч" надыходзіла, нярэдка высвятлялася, што справіцца з правільнай наладай сервераў і СХД самастойна кампаніі альбо не могуць, альбо не паспяваюць. Вырашаць гэтыя задачы па ходзе развіцця пазаштатных сітуацый проста не атрымлівалася. Праз час прыйшло разуменне: пікі попыту на кантэнт і анлайн-сэрвісы выдатна адпрацоўваюцца з дапамогай рэсурсаў трэцяга боку, якія можна набываць па мадэлі pay-as-you-go – аплата фактычна спажыванага аб'ёму.

Сёння практычна ўсе кампаніі, якія прадбачаць усплёск попыту на свае рэсурсы ў святы (так званы burst), загадзя заказваюць пашырэнне прапускной здольнасці каналаў сувязі. Тыя кампаніі, якія размяшаюць прыкладанні і базы дадзеных на рэсурсах ЦАДа, пад святочныя пікі нарошчваюць вылічальныя магутнасці ў аблоках, дазаказваючы ў дата-цэнтрах неабходныя віртуальныя машыны, аб'ём СХД і г.д.  

Як не прамахнуцца ў разліках

Як дата-цэнтры ратуюць святы

Для падрыхтоўкі да пікавых нагрузак важна скаардынаваная праца правайдэра і кліента. Асноўнымі момантамі ў гэтай працы можна назваць дакладны прагноз скачка нагрузкі па тэрмінах і аб'ёмах, стараннае планаванне і якасць узаемадзеяння з калегамі ўнутры ЦАД, а таксама з камандай ІТ-спецыялістаў на баку кантэнт-правайдэра.

Арганізаваць хуткае вылучэнне рэсурсаў, неабходных для таго, каб новая серыя каханага серыяла на экране вашага планшэта не падвісала, дапамагае цэлы шэраг рашэнняў.
 

  • Па-першае, гэта балансавальнікі працоўных нагрузак: гэта праграмныя рашэнні, якія старанна маніторыць узровень загрузкі сервераў, СХД і сеткі, дазваляючы аптымізаваць працу кожнай сістэмы пад пастаўленую задачу. Балансавальнікі ацэньваюць узровень даступнасці як «жалеза», так і віртуальных машын, не дазваляючы асядаць прадукцыйнасці сістэм з аднаго боку, і не даючы інфраструктуры «перагравацца» і тармазіць, з другога. Такім чынам падтрымліваецца пэўны ўзровень запасу рэсурсаў, якія могуць аператыўна перакідвацца на вырашэнне тэрміновых задач (рэзкі скачок зваротаў да партала з відэа-кантэнтам, рост заказаў пэўнага тавару і да таго падобнае).
  • Па-другое, CDN. Гэтая тэхналогія дазваляе карыстачам без затрымак на буферызацыю атрымліваць кантэнт з партала праз доступ да яго з найблізкай да карыстача геаграфічнай кропкі. Акрамя таго, CDN нівелюе згубнае ўздзеянне на працэсы перадачы трафіку, выкліканае перагрузкай каналаў, разрывамі сувязі, стратамі пакетаў на стыках каналаў і т.д.

Усёбачнае Okko

Як дата-цэнтры ратуюць святы

Разгледзім прыклад падрыхтоўкі да свят анлайн-кінатэатра Okko, які выкарыстоўвае нашы пляцоўкі ў Маскве і Санкт-Пецярбургу.

Па словах Аляксея Голубева, тэхнічнага дырэктара Okko, у кампаніі, акрамя каляндарных свят (высокага сезона), ёсць перыяды, калі выходзяць асноўныя кінанавінкі ад мэйджараў:

«Кожны год у святочны сезон Okko расце па аб'ёме трафіку прыблізна ў два разы ў адносінах да папярэдняга года. Так, калі ў мінулы навагодні сезон максімальнай пікавай нагрузкай былі 80 Гбіт/с, то ў 2018/19 мы чакалі 160 - традыцыйны рост удвая. Аднак, атрымалі больш за 200 Гбіт/с!»

Okko заўсёды рыхтуецца да пікавай нагрузкі павольна, на працягу гады, у рамках праекту пад кодавай назвай "Новы Год". Раней у Okko выкарыстоўвалі ўласную інфраструктуру, у кампаніі ёсць свой раздавальны кластар дастаўкі кантэнту, на ўласным жалезе і са сваім жа праграмным забеспячэннем. На працягу года тэхнічныя спецыялісты Okko паступова куплялі новыя серверы, павялічвалі прапускную здольнасць свайго кластара, мяркуючы гадавы рост у два разы. Дадаткова падлучалі новыя аплінкі і аператараў – акрамя буйных гульцоў накшталт "Ростелекома", "Мегафона" і МТС, таксама падключалі і кропкі абмену трафікам, і самых дробных аператараў. Такі падыход дазваляў дастаўляць сэрвіс максімальнай колькасці кліентаў самым кароткім маршрутам.

У мінулым годзе, прааналізаваўшы кошт абсталявання, працавыдаткаў на пашырэнне і параўнаўшы з коштам выкарыстання іншых CDN, у Okko зразумелі, што прыйшоў час паспрабаваць гібрыдную мадэль раздачы. За двухразовым ростам у навагоднія вакацыі ідзе спад трафіку, а люты - самы нізкі сезон. І атрымліваецца, што сваё абсталяванне прастойвае тым часам. Да лета спад нівеліруецца, і ўжо да восеньскага сезона пачынаецца новы ўздым. Таму ў рамках падрыхтоўкі да новага 2019 Okko пайшлі іншым шляхам: дапрацавалі сваё ПА, каб умець размяркоўваць нагрузку не толькі на сябе, але і на знешнія CDN (сетка дастаўкі кантэнту - Content Delivery Network). Было падлучана два такіх CDN, у якія "зліваліся" лішкі трафіку. Унутраная прапускная здольнасць ІТ-інфраструктуры Okko гатова была вытрымаць той самы падвойны рост, але на выпадак, калі адбудзецца перабор рэсурсаў, былі падрыхтаваны партнёрскія CDN.

«Рашэнне не нарошчваць свой CDN зэканоміла Okko каля 20% бюджэту раздачы ў CAPEX. Плюс кампанія зэканоміла некалькі чалавека-месяцаў, пераклаўшы працу па наладзе абсталявання на плечы партнёра. - Каментуе Аляксей Голубеў.

Які раздае кластар (унутраны CDN) у Okko рэалізаваны на двух пляцоўках Linxdatacenter у Маскве і ў Санкт-Пецярбургу. Забяспечана поўнае люстраванне і кантэнту, і яго кэшавання (якія раздаюць ноды). Адпаведна, маскоўскі дата-цэнтр апрацоўвае Маскву і некалькі абласцей Расіі, а пецярбургскі - Паўночна-Захад і астатнюю частку тэрыторыі краіны. Балансіроўка адбываецца не толькі па рэгіянальнай прыкмеце, але і ў залежнасці ад загружанасці нод у канкрэтным дата-цэнтры, таксама ўлічваецца наяўнасць фільма ў кэшы і шэраг іншых фактараў.

Узбуйненая архітэктура сэрвісу выглядае на схеме так:

Як дата-цэнтры ратуюць святы

Фізічна сэрвіс і падтрымка распрацоўкі прадукта складаюцца з парадку дзесяці стоек у Пецярбургу і некалькіх стоек у Маскве. Ёсць пара дзясяткаў сервераў пад віртуалізацыю і амаль дзвесце «жалезных» сервераў для ўсяго астатняга – раздачы, падтрымкі сэрвісу і ўласнай інфраструктуры офіса. Узаемадзеянне кантэнт-правайдэра з ЦАД у перыяд пікавых нагрузак ніяк не адрозніваецца ад бягучай працы. Усе зносіны абмяжоўваюцца заяўкай у службу падтрымкі, а ў выпадку няштатнай сітуацыі - па званку.

Сёння мы, як ніколі, блізкія да сучаснасці, на ўсе 100% бесперабойнаму сцэнару спажывання кантэнту ў анлайне, паколькі ўсе неабходныя для гэтага тэхналогіі ўжо даступныя. Развіццё анлайн-стрымінгу адбываецца вельмі хутка. Расце папулярнасць легальных мадэляў спажывання кантэнту: расійскія карыстачы пачынаюць паступова абвыкаць да таго, што трэба плаціць за кантэнт. Прычым, не толькі за кіно, але і за музыку, кнігі, адукацыйныя матэрыялы ў сетцы. І ў сувязі з гэтым дастаўка найбольш разнастайнага кантэнту і з найменшымі сеткавымі затрымкамі - найважнейшы крытэр у працы анлайн-сэрвісаў. І наша задача, як сэрвіс-правайдэра, - закрыць патрэбнасці ў рэсурсах своечасова і з запасам.

Крыніца: habr.com

Дадаць каментар