Si Uma.Tech zhvilloi infrastrukturën

Ne lançuam shërbime të reja, trafiku u rrit, zëvendësuam serverët, lidhëm faqe të reja dhe rimodeluam qendrat e të dhënave - dhe tani do të tregojmë këtë histori, fillimin e së cilës ju prezantuam pesë vjet më parë.

Pesë vjet është një kohë tipike për përmbledhjen e rezultateve të ndërmjetme. Prandaj, vendosëm të flasim për zhvillimin e infrastrukturës sonë, e cila gjatë pesë viteve të fundit ka kaluar në një rrugë çuditërisht interesante zhvillimi, për të cilën jemi krenarë. Ndryshimet sasiore që kemi zbatuar janë kthyer në cilësore, tani infrastruktura mund të funksionojë në mënyra që dukeshin fantastike në mesin e dekadës së fundit.

Ne sigurojmë funksionimin e projekteve më komplekse me kërkesat më të rrepta për besueshmërinë dhe ngarkesat, duke përfshirë PREMIER dhe Match TV. Transmetimet sportive dhe premiera e serialeve të njohura televizive kërkojnë trafik në terabit/s, ne e zbatojmë lehtësisht këtë dhe aq shpesh sa puna me të tilla shpejtësi është bërë prej kohësh e zakonshme për ne. Dhe pesë vjet më parë, projekti më i rëndë që funksiononte në sistemet tona ishte Rutube, i cili që atëherë është zhvilluar, ka rritur vëllimet dhe trafikun, të cilat duheshin marrë parasysh gjatë planifikimit të ngarkesave.

Ne folëm për mënyrën se si e zhvilluam harduerin e infrastrukturës sonë ("Rutube 2009-2015: historia e pajisjeve tona") dhe zhvilloi një sistem përgjegjës për ngarkimin e videove ("Nga zero në 700 gigabit për sekondë - si ngarkon video një nga faqet më të mëdha të pritjes së videove në Rusi"), por ka kaluar shumë kohë që kur janë shkruar këto tekste, janë krijuar dhe zbatuar shumë zgjidhje të tjera, rezultatet e të cilave na lejojnë të përmbushim kërkesat moderne dhe të jemi mjaft fleksibël për t'iu përshtatur detyrave të reja.

Si Uma.Tech zhvilloi infrastrukturën

Bërthama e rrjetit Ne jemi vazhdimisht në zhvillim. Ne kaluam në pajisjet Cisco në 2015, të cilat e përmendëm në artikullin e mëparshëm. Në atë kohë ishte ende i njëjti 10/40G, por për arsye të dukshme, pas disa vitesh ata e përmirësonin shasinë ekzistuese, dhe tani ne përdorim në mënyrë aktive 25/100G.

Si Uma.Tech zhvilloi infrastrukturën

Lidhjet 100G nuk kanë qenë prej kohësh një luks (përkundrazi, kjo është një kërkesë urgjente e kohës në segmentin tonë), as një gjë e rrallë (gjithnjë e më shumë operatorë ofrojnë lidhje me shpejtësi të tilla). Megjithatë, 10/40G mbetet e rëndësishme: përmes këtyre lidhjeve ne vazhdojmë të lidhim operatorë me një sasi të vogël trafiku, për të cilin aktualisht është e papërshtatshme të përdoret një port më i gjerë.

Bërthama e rrjetit që krijuam meriton një konsideratë të veçantë dhe do të bëhet temë e një artikulli të veçantë pak më vonë. Atje do të thellohemi në detaje teknike dhe do të shqyrtojmë logjikën e veprimeve tona kur e krijojmë atë. Por tani do të vazhdojmë ta tërheqim infrastrukturën në mënyrë më skematike, pasi vëmendja juaj, të dashur lexues, nuk është e pakufizuar.

Serverët e daljes së videos evoluojnë shpejt, për të cilat ne ofrojmë shumë përpjekje. Nëse më parë përdornim kryesisht serverë 2U me 4-5 karta rrjeti me dy porte 10G secila, tani pjesa më e madhe e trafikut dërgohet nga serverët 1U, të cilët kanë 2-3 karta me dy porte 25G secili. Kartat me 10G dhe 25G janë pothuajse të barabarta në kosto, dhe zgjidhjet më të shpejta ju lejojnë të transmetoni në të dy 10G dhe 25G. Rezultati ishte kursime të dukshme: më pak komponentë server dhe kabllo për lidhje - kosto më e ulët (dhe besueshmëri më e lartë), komponentët zënë më pak hapësirë ​​në raft - u bë e mundur vendosja e më shumë serverëve për njësi zonë dhe, për rrjedhojë, kosto më e ulët e qirasë.

Por më e rëndësishme është fitimi në shpejtësi! Tani mund të dërgojmë më shumë se 1G me 100U! Dhe kjo është në sfondin e një situate ku disa projekte të mëdha ruse e quajnë daljen 40G nga 2U një "arritje". Ne do të donim problemet e tyre!

Si Uma.Tech zhvilloi infrastrukturën

Vini re se ne ende përdorim gjenerimin e kartave të rrjetit që mund të funksionojnë vetëm në 10G. Kjo pajisje funksionon në mënyrë të qëndrueshme dhe është shumë e njohur për ne, kështu që ne nuk e hodhëm atë, por gjetëm një përdorim të ri për të. Ne i instaluam këta komponentë në serverët e ruajtjes së videove, për të cilët një ose dy ndërfaqe 1G nuk janë qartësisht të mjaftueshme për të funksionuar në mënyrë efektive; këtu kartat 10G doli të ishin të rëndësishme.

Sistemet e ruajtjes po rriten gjithashtu. Gjatë pesë viteve të fundit, ato kanë ndryshuar nga dymbëdhjetë disqe (12x HDD 2U) në tridhjetë e gjashtë disqe (36x HDD 4U). Disa kanë frikë të përdorin "kufoma" të tilla të mëdha, pasi nëse një shasi e tillë dështon, mund të ketë një kërcënim për produktivitetin - apo edhe funksionimin! - për të gjithë sistemin. Por kjo nuk do të ndodhë me ne: ne kemi siguruar kopje rezervë në nivelin e kopjeve gjeo-shpërndarë të të dhënave. Ne kemi shpërndarë shasinë në qendra të ndryshme të dhënash - ne përdorim tre në total - dhe kjo eliminon shfaqjen e problemeve si në rast të dështimeve në shasi ashtu edhe kur bie faqja.

Si Uma.Tech zhvilloi infrastrukturën

Sigurisht, kjo qasje e bëri të tepërt RAID-in e harduerit, të cilin ne e braktisëm. Duke eliminuar tepricën, në të njëjtën kohë kemi rritur besueshmërinë e sistemit duke thjeshtuar zgjidhjen dhe duke hequr një nga pikat e mundshme të dështimit. Le t'ju kujtojmë se sistemet tona të ruajtjes janë "shtëpiake". E bëmë këtë qëllimisht dhe ishim plotësisht të kënaqur me rezultatin.

Qendrat e të dhënave Gjatë pesë viteve të fundit ne kemi ndryshuar disa herë. Që nga shkrimi i artikullit të mëparshëm, ne nuk kemi ndryshuar vetëm një qendër të dhënash - DataLine - pjesa tjetër kërkon zëvendësim ndërsa infrastruktura jonë u zhvillua. Të gjitha transferimet ndërmjet vendeve ishin planifikuar.

Dy vjet më parë, ne migruam brenda MMTS-9, duke u zhvendosur në një vend me riparime të cilësisë së lartë, një sistem të mirë ftohjeje, furnizim të qëndrueshëm me energji elektrike dhe pa pluhur, i cili më parë shtrihej në shtresa të trasha në të gjitha sipërfaqet dhe gjithashtu bllokoi pjesën e brendshme të pajisjeve tona. . Zgjidhni shërbime cilësore – dhe pa pluhur! – u bë shkak për lëvizjen tonë.

Si Uma.Tech zhvilloi infrastrukturën

Pothuajse gjithmonë "një lëvizje është e barabartë me dy zjarre", por problemet gjatë migrimit janë të ndryshme çdo herë. Këtë herë, vështirësia kryesore për të lëvizur brenda një qendre të dhënash u “sigurua” nga ndërlidhjet optike - bollëku i tyre midis kateve pa u kombinuar në një ndërlidhje të vetme nga operatorët e telekomit. Procesi i përditësimit dhe ridrejtimit të ndërlidhjeve (me të cilat na ndihmuan inxhinierët MMTS-9) ishte ndoshta faza më e vështirë e migrimit.

Migrimi i dytë ndodhi një vit më parë; në 2019, ne kaluam nga një qendër jo shumë e mirë e të dhënave në O2xygen. Arsyet e lëvizjes ishin të ngjashme me ato të diskutuara më lart, por ato u plotësuan nga problemi i jotraktivitetit të qendrës origjinale të të dhënave për operatorët e telekomit - shumë ofrues duhej të "kapin" këtë pikë vetë.

Si Uma.Tech zhvilloi infrastrukturën

Migrimi i 13 rafteve në një sit me cilësi të lartë në MMTS-9 bëri të mundur zhvillimin e këtij lokacioni jo vetëm si vendndodhje operatori (disa rafte dhe "përpara" operatorësh), por edhe përdorimin e tij si një nga kryesoret. Kjo thjeshtoi disi migrimin nga një qendër jo shumë e mirë e të dhënave - ne transportuam shumicën e pajisjeve nga ajo në një vend tjetër, dhe O2xygen iu dha roli i një zhvillimi, duke dërguar 5 rafte me pajisje atje.

Sot O2xygen është tashmë një platformë e plotë, ku operatorët që na duhen kanë “mbërritur” dhe të rinj vazhdojnë të lidhen. Për operatorët, O2xygen gjithashtu doli të ishte tërheqës nga pikëpamja e zhvillimit strategjik.

Ne e kryejmë gjithmonë fazën kryesore të lëvizjes brenda një nate dhe kur migronim brenda MMTS-9 dhe në O2xygen, ne i përmbaheshim këtij rregulli. Theksojmë se respektojmë me përpikëri rregullin “lëviz brenda natës”, pavarësisht nga numri i rafteve! Madje kishte një precedent kur zhvendosëm 20 rafte dhe e përfunduam këtë gjithashtu brenda një nate. Migrimi është një proces mjaft i thjeshtë që kërkon saktësi dhe qëndrueshmëri, por këtu ka disa truke, si në procesin e përgatitjes, ashtu edhe gjatë lëvizjes, dhe kur vendoseni në një vend të ri. Ne jemi të gatshëm të flasim për migracionin në detaje nëse jeni të interesuar.

Gjetjet Na pëlqejnë planet pesëvjeçare të zhvillimit. Kemi përfunduar ndërtimin e një infrastrukture të re tolerante ndaj gabimeve, e shpërndarë në tre qendra të dhënash. Ne kemi rritur ndjeshëm densitetin e trafikut - nëse kohët e fundit ishim të kënaqur me 40-80G me 2U, tani norma për ne është 100G me 1U. Tani edhe një terabit trafiku perceptohet nga ne si diçka e zakonshme. Ne jemi të gatshëm të zhvillojmë më tej infrastrukturën tonë, e cila ka rezultuar të jetë fleksibël dhe e shkallëzueshme.

Pyetje: Për çfarë duhet t'ju them në tekstet e mëposhtme, të dashur lexues? Përse filluam krijimin e sistemeve të ruajtjes së të dhënave të bëra vetë? Rreth bërthamës së rrjetit dhe veçorive të tij? Rreth truket dhe hollësitë e migrimit midis qendrave të të dhënave? Rreth optimizimit të vendimeve të dorëzimit duke zgjedhur komponentët dhe parametrat e rregullimit të imët? Rreth krijimit të zgjidhjeve të qëndrueshme falë tepricave të shumta dhe aftësive të shkallëzimit horizontal brenda një qendre të dhënash, të cilat zbatohen në një strukturë prej tre qendrash të dhënash?

Autor: Petr Vinogradov - Drejtor Teknik i Uma.Tech hamsters

Burimi: www.habr.com

Shto një koment