Hoe Uma.Tech infrastruktuur ontwikkel het

Ons het nuwe dienste bekend gestel, verkeer het gegroei, bedieners vervang, nuwe werwe gekoppel en datasentrums opgeknap - en nou sal ons hierdie storie vertel, waarvan ons jou vyf jaar gelede aan die begin bekendgestel het.

Vyf jaar is 'n tipiese tyd om tussentydse resultate op te som. Daarom het ons besluit om te praat oor die ontwikkeling van ons infrastruktuur, wat die afgelope vyf jaar deur 'n verrassend interessante pad van ontwikkeling gegaan het, waarop ons trots is. Die kwantitatiewe veranderinge wat ons geïmplementeer het, het in kwalitatiewe veranderings verander; nou kan die infrastruktuur funksioneer in modusse wat in die middel van die afgelope dekade fantasties gelyk het.

Ons verseker die bedryf van die mees komplekse projekte met die strengste vereistes vir betroubaarheid en vragte, insluitend PREMIER en Match TV. Sportuitsendings en die première van gewilde TV-reekse vereis verkeer in terabit/s, ons implementeer dit maklik, en so dikwels dat die werk met sulke snelhede lankal vir ons algemeen geword het. En vyf jaar gelede was die swaarste projek wat op ons stelsels loop, Rutube, wat sedertdien ontwikkel het, volumes en verkeer verhoog het, wat in ag geneem moes word wanneer vragte beplan word.

Ons het gepraat oor hoe ons die hardeware van ons infrastruktuur ontwikkel het ("Rutube 2009-2015: die geskiedenis van ons hardeware") en het 'n stelsel ontwikkel wat verantwoordelik is vir die oplaai van video's ("Van nul tot 700 gigabit per sekonde - hoe een van die grootste video-gasheerwebwerwe in Rusland video oplaai"), maar baie tyd het verloop sedert hierdie tekste geskryf is, baie ander oplossings is geskep en geïmplementeer, waarvan die resultate ons in staat stel om aan moderne vereistes te voldoen en buigsaam genoeg te wees om by nuwe take aan te pas.

Hoe Uma.Tech infrastruktuur ontwikkel het

Netwerk kern Ons ontwikkel voortdurend. Ons het in 2015 oorgeskakel na Cisco-toerusting, wat ons in die vorige artikel genoem het. Destyds was dit nog dieselfde 10/40G, maar om ooglopende redes het hulle na 'n paar jaar die bestaande onderstel opgegradeer, en nou gebruik ons ​​25/100G aktief.

Hoe Uma.Tech infrastruktuur ontwikkel het

100G-skakels is lank nie 'n luukse nie (dit is eerder 'n dringende vereiste van die tyd in ons segment), nóg 'n rariteit (al hoe meer operateurs verskaf verbindings teen sulke spoed). 10/40G bly egter relevant: deur hierdie skakels gaan ons voort om operateurs met 'n klein hoeveelheid verkeer te verbind, waarvoor dit tans onvanpas is om 'n ruimer poort te gebruik.

Die netwerkkern wat ons geskep het, verdien afsonderlike oorweging en sal 'n bietjie later die onderwerp van 'n aparte artikel word. Daar sal ons in tegniese besonderhede delf en die logika van ons optrede oorweeg wanneer ons dit skep. Maar nou sal ons voortgaan om die infrastruktuur meer skematies te teken, aangesien u aandag, liewe lesers, nie onbeperk is nie.

Video-uitsetbedieners vinnig ontwikkel, waarvoor ons baie moeite doen. As ons vroeër hoofsaaklik 2U-bedieners met 4-5 netwerkkaarte met twee 10G-poorte elk gebruik het, word die meeste van die verkeer nou vanaf 1U-bedieners gestuur, wat 2-3 kaarte met elk twee 25G-poorte het. Kaarte met 10G en 25G is byna gelyk in koste, en vinniger oplossings laat jou toe om oor beide 10G en 25G te stuur. Die resultaat was duidelike besparings: minder bedienerkomponente en kabels vir verbinding - laer koste (en hoër betroubaarheid), komponente neem minder spasie in die rek op - dit het moontlik geword om meer bedieners per eenheidsoppervlakte te plaas en dus laer huurkoste.

Maar belangriker is die wins in spoed! Nou kan ons meer as 1G met 100U stuur! En dit is teen die agtergrond van 'n situasie waar sommige groot Russiese projekte 40G-uitset van 2U 'n "prestasie" noem. Ons wil graag hul probleme hê!

Hoe Uma.Tech infrastruktuur ontwikkel het

Let daarop dat ons steeds die generasie netwerkkaarte gebruik wat slegs op 10G kan werk. Hierdie toerusting werk stabiel en is baie bekend aan ons, so ons het dit nie weggegooi nie, maar 'n nuwe gebruik daarvoor gevind. Ons het hierdie komponente in videobergingsbedieners geïnstalleer, waarvoor een of twee 1G-koppelvlakke duidelik nie genoeg is om doeltreffend te werk nie; hier was 10G-kaarte relevant.

Bergingstelsels groei ook. Oor die afgelope vyf jaar het hulle verander van twaalf-skywe (12x HDD 2U) na ses-en-dertig-skywe (36x HDD 4U). Sommige is bang om sulke ruim "karkasse" te gebruik, want as een so 'n onderstel misluk, kan daar 'n bedreiging vir produktiwiteit - of selfs werkbaarheid wees! – vir die hele stelsel. Maar dit sal nie met ons gebeur nie: ons het rugsteun verskaf op die vlak van geo-verspreide kopieë van data. Ons het die onderstel na verskillende datasentrums versprei - ons gebruik altesaam drie - en dit skakel die voorkoms van probleme uit, beide in die geval van foute in die onderstel en wanneer die werf val.

Hoe Uma.Tech infrastruktuur ontwikkel het

Natuurlik het hierdie benadering hardeware RAID oorbodig gemaak, wat ons laat vaar het. Deur oortolligheid uit te skakel, het ons terselfdertyd stelselbetroubaarheid verhoog deur die oplossing te vereenvoudig en een van die potensiële punte van mislukking te verwyder. Laat ons jou daaraan herinner dat ons bergingstelsels "tuisgemaak" is. Ons het dit baie doelbewus gedoen en ons was heeltemal tevrede met die resultaat.

Datasentrums Oor die afgelope vyf jaar het ons verskeie kere verander. Sedert die skryf van die vorige artikel, het ons nie net een datasentrum verander nie - DataLine - die res het vervanging vereis soos ons infrastruktuur ontwikkel het. Alle oorplasings tussen terreine is beplan.

Twee jaar gelede het ons binne MMTS-9 gemigreer, na 'n perseel met herstelwerk van hoë gehalte, 'n goeie verkoelingstelsel, stabiele kragtoevoer en geen stof, wat voorheen in dik lae op alle oppervlaktes gelê het en ook die binnekant van ons toerusting verstop het, verhuis. . Kies kwaliteit dienste – en geen stof nie! – het die rede vir ons skuif geword.

Hoe Uma.Tech infrastruktuur ontwikkel het

Byna altyd "een beweging is gelyk aan twee brande", maar die probleme tydens migrasie is elke keer anders. Hierdie keer is die grootste probleem om binne een datasentrum te beweeg "verskaf" deur optiese kruisverbindings - hul oorvloed tussen vloere sonder om deur telekommunikasie-operateurs in 'n enkele kruisverbinding gekombineer te word. Die proses van opdatering en herroetering van kruisverbindings (waarmee MMTS-9-ingenieurs ons gehelp het) was miskien die moeilikste stadium van migrasie.

Die tweede migrasie het 'n jaar gelede plaasgevind; in 2019 het ons van 'n nie baie goeie datasentrum na O2xygen geskuif nie. Die redes vir die skuif was soortgelyk aan dié wat hierbo bespreek is, maar dit is aangevul deur die probleem van die onaantreklikheid van die oorspronklike datasentrum vir telekommunikasie-operateurs – baie verskaffers moes tot op hierdie punt op hul eie “inhaal”.

Hoe Uma.Tech infrastruktuur ontwikkel het

Die migrasie van 13 rakke na 'n hoë-gehalte perseel in MMTS-9 het dit moontlik gemaak om hierdie ligging nie net as 'n operateur se ligging ('n paar rakke en "voorspelers" van operateurs) te ontwikkel nie, maar ook om dit as een van die belangrikstes. Dit het die migrasie vanaf 'n nie baie goeie datasentrum ietwat vereenvoudig nie - ons het die meeste van die toerusting daarvandaan na 'n ander werf vervoer, en O2xygen het die rol van 'n ontwikkelende een gekry en 5 rakke met toerusting daarheen gestuur.

Vandag is O2xygen reeds 'n volwaardige platform, waar die operateurs wat ons nodig het "aangekom" en nuwes aanhou verbind. Vir operateurs het O2xygen ook aantreklik geblyk uit die oogpunt van strategiese ontwikkeling.

Ons voer altyd die hooffase van die skuif in een nag uit, en wanneer ons binne MMTS-9 en na O2xygen migreer, het ons hierdie reël nagekom. Ons beklemtoon dat ons die "skuif oornag" reël streng volg, ongeag die aantal rakke! Daar was selfs 'n presedent toe ons 20 rakke geskuif het en dit ook in een nag voltooi het. Migrasie is 'n redelik eenvoudige proses wat akkuraatheid en konsekwentheid vereis, maar daar is 'n paar truuks hier, beide in die voorbereidingsproses, en wanneer verhuis, en wanneer dit na 'n nuwe plek ontplooi word. Ons is gereed om in detail oor migrasie te praat as jy belangstel.

Bevindinge Ons hou van vyfjaar-ontwikkelingsplanne. Ons het die konstruksie voltooi van 'n nuwe foutverdraagsame infrastruktuur wat oor drie datasentrums versprei is. Ons het die digtheid van verkeerslewering skerp verhoog - as ons onlangs tevrede was met 40-80G met 2U, is die norm vir ons nou 100G met 1U. Nou word selfs 'n terabit verkeer deur ons as alledaags beskou. Ons is gereed om ons infrastruktuur verder te ontwikkel, wat buigsaam en skaalbaar geblyk het te wees.

Vraag: Waaroor moet ek julle in die volgende tekste vertel, liewe lesers? Oor hoekom ons tuisgemaakte databergingstelsels begin skep het? Oor die netwerkkern en sy kenmerke? Oor die truuks en subtiliteite van migrasie tussen datasentrums? Oor die optimalisering van afleweringsbesluite deur komponente te kies en parameters te verfyn? Oor die skep van volhoubare oplossings danksy veelvuldige ontslag en horisontale skaalvermoë binne 'n datasentrum, wat in 'n struktuur van drie datasentrums geïmplementeer word?

Skrywer: Petr Vinogradov - Tegniese Direkteur van Uma.Tech hamsters

Bron: will.com

Voeg 'n opmerking