Uma.Tech څنګه زیربناوې رامینځته کړې

موږ نوي خدمتونه پیل کړل، ټرافیک وده وکړه، سرورونه یې ځای په ځای کړل، نوي سایټونه وصل کړل او د ډیټا مرکزونه یې بیا جوړ کړل - او اوس به موږ دا کیسه ووایو، د کوم پیل چې موږ تاسو ته پنځه کاله وړاندې معرفي کړ..

پنځه کاله د لنډمهاله پایلو د راټولولو لپاره یو عادي وخت دی. له همدې امله، موږ پریکړه وکړه چې د خپلو زیربناوو د پراختیا په اړه وغږیږو، کوم چې په تیرو پنځو کلونو کې د حیرانتیا وړ په زړه پورې پرمختګ څخه تیر شوی، چې موږ یې ویاړو. هغه کمیتي بدلونونه چې موږ پلي کړي دي په کیفیت بدل شوي؛ اوس زیربنا کولی شي په داسې حالتونو کې کار وکړي چې د تیرې لسیزې په مینځ کې خورا ښه ښکاري.

موږ د خورا پیچلي پروژو عملیات د اعتبار او بارونو لپاره خورا سختو اړتیاو سره تضمین کوو ، پشمول د پریمیر او میچ تلویزیون. د سپورت خپرونې او د مشهور تلویزیون لړۍ پریمیر په terabits/s کې ترافیک ته اړتیا لري، موږ دا په اسانۍ سره پلي کوو، او ډیری وختونه دا چې د داسې سرعت سره کار کول زموږ لپاره د اوږدې مودې لپاره عادي خبره ده. او پنځه کاله دمخه، زموږ په سیسټمونو کې ترټولو درنه پروژه روانه وه Rutube، چې وروسته یې وده کړې، حجم او ټرافيک یې زیات کړی، کوم چې باید د بار کولو پلان کولو په وخت کې په پام کې ونیول شي.

موږ د دې په اړه خبرې وکړې چې څنګه موږ د خپل زیربنا هارډویر ته وده ورکړه ("روټیوب 2009-2015: زموږ د هارډویر تاریخ") او یو سیسټم رامینځته کړی چې د ویډیو اپلوډ کولو مسؤلیت لري ("له صفر څخه تر 700 ګیګابایټ پورې په ثانیه کې - څنګه په روسیه کې د ویډیو کوربه کولو ترټولو لوی سایټونه ویډیو اپلوډ کوي")، مګر د دې متنونو له لیکلو څخه ډیر وخت تیر شوی، ډیری نورې حلونه رامینځته شوي او پلي شوي، چې پایلې یې موږ ته اجازه راکوي چې عصري اړتیاوې پوره کړو او د نوي کارونو سره د تطبیق لپاره کافي انعطاف وړ وي.

Uma.Tech څنګه زیربناوې رامینځته کړې

د شبکې اصلي موږ په دوامداره توګه وده کوو. موږ په 2015 کې د سیسکو تجهیزاتو ته لاړ، کوم چې موږ په تیرو مقالو کې یادونه وکړه. وروسته بیا دا لاهم ورته 10/40G و ، مګر د څرګند دلیلونو لپاره ، د څو کلونو وروسته دوی موجوده چیسیس لوړ کړ ، او اوس موږ په فعاله توګه 25/100G کاروو.

Uma.Tech څنګه زیربناوې رامینځته کړې

د 100G لینکونه له اوږدې مودې راهیسې نه آرایشي دي (بلکه دا زموږ په برخه کې د وخت عاجل اړتیا ده) ، او نه هم نادر (ډیر او ډیر چلونکي په ورته سرعت کې اړیکې چمتو کوي). په هرصورت، 10/40G اړونده پاتې دی: د دې لینکونو له لارې موږ آپریټرانو سره د لږ مقدار ټرافیک سره نښلولو ته دوام ورکوو، د کوم لپاره چې دا مهال د ډیر ظرفیت لرونکي بندر کارولو لپاره نامناسب دی.

د شبکې کور چې موږ رامینځته کړی د جلا پاملرنې مستحق دی او یو څه وروسته به د جلا مقالې موضوع شي. هلته به موږ تخنیکي توضیحاتو ته پام وکړو او د رامینځته کولو پرمهال به زموږ د عمل منطق په پام کې ونیسو. مګر اوس به موږ زیربنا په ډیر پلاني ډول راښکاره کړو، ځکه چې ستاسو پام، ګرانو لوستونکو، غیر محدود نه دی.

د ویډیو تولید سرورونه په چټکۍ سره وده کوي، د کوم لپاره چې موږ ډیرې هڅې وړاندیز کوو. که دمخه موږ په عمده ډول 2U سرورونه د 4-5 شبکې کارتونو سره د دوه 10G بندرونو سره کارولي ، اوس ډیری ترافیک د 1U سرورونو څخه لیږل کیږي ، کوم چې هر یو د دوه 2G بندرونو سره 3-25 کارتونه لري. د 10G او 25G سره کارتونه تقریبا په لګښت کې مساوي دي، او چټک حلونه تاسو ته اجازه درکوي چې په 10G او 25G دواړو کې لیږدول شي. پایله یې څرګنده سپما وه: د اتصال لپاره د سرور لږ برخې او کیبلونه - ټیټ لګښت (او لوړ اعتبار) ، اجزا په ریک کې لږ ځای نیسي - دا ممکنه شوه چې په هر واحد ساحه کې ډیر سرورونه ځای په ځای شي او له همدې امله د کرایې لګښتونه ټیټ دي.

مګر ډیر مهم په سرعت کې لاسته راوړنه ده! اوس موږ کولی شو د 1U سره له 100G څخه ډیر واستوو! او دا د داسې وضعیت شالید دی چیرې چې ځینې لویې روسی پروژې د 40U څخه د 2G محصول "لاس ته راوړنه" بولي. موږ د دوی ستونزې غواړو!

Uma.Tech څنګه زیربناوې رامینځته کړې

په یاد ولرئ چې موږ لاهم د شبکې کارتونو نسل کاروو چې یوازې په 10G کې کار کولی شي. دا تجهیزات په ثابت ډول کار کوي او موږ ته خورا پیژندل شوي، نو موږ یې نه پریږدو، مګر د دې لپاره یې نوې کارول وموندل. موږ دا اجزاوې د ویډیو ذخیره کولو سرورونو کې نصب کړې ، د کوم لپاره چې یو یا دوه 1G انٹرفیس په روښانه ډول د مؤثره کار کولو لپاره کافي ندي؛ دلته د 10G کارتونه اړونده ثابت شوي.

د ذخیره کولو سیسټمونه هم وده کوي. په تیرو پنځو کلونو کې، دوی له دولسو ډیسک (12x HDD 2U) څخه شپیته ډیسک (36x HDD 4U) ته بدل شوي. ځینې ​​​​یې د داسې ظرفیت لرونکي "مرګونو" کارولو څخه ویره لري ، ځکه چې که چیرې دا ډول چیسس ناکام شي ، نو ممکن تولید - یا حتی فعالیت ته ګواښ وي! - د ټول سیسټم لپاره. مګر دا به زموږ سره پیښ نشي: موږ د ډیټا جیو توزیع شوي کاپيونو په کچه بیک اپ چمتو کړی. موږ چیسیس مختلف ډیټا مرکزونو ته توزیع کړی - موږ په مجموع کې درې کاروو - او دا په چیسس کې د ناکامۍ په صورت کې او کله چې سایټ رالویږي د ستونزو پیښې له مینځه وړي.

Uma.Tech څنګه زیربناوې رامینځته کړې

البته، دې طریقې د هارډویر RAID بې ځایه کړي، کوم چې موږ پریښود. د بې ځایه کیدو له مینځه وړو سره، موږ په ورته وخت کې د حل ساده کولو او د ناکامۍ احتمالي ټکو څخه د لرې کولو له لارې د سیسټم اعتبار زیات کړ. راځئ چې تاسو ته یادونه وکړو چې زموږ د ذخیره کولو سیسټمونه "کور جوړ شوي" دي. موږ دا په قصدي توګه ترسره کړل او موږ له پایلې څخه په بشپړ ډول راضي وو.

د معلوماتو مرکزونه په تیرو پنځو کلونو کې موږ څو ځله بدلون موندلی. د تیرې مقالې لیکلو راهیسې، موږ یوازې یو ډیټا مرکز نه دی بدل کړی - ډیټا لاین - پاتې نور د اړتیا سره بدیل ته اړتیا لري لکه څنګه چې زموږ زیربنا وده کړې. د سایټونو تر مینځ ټول لیږد پلان شوی و.

دوه کاله دمخه، موږ د MMTS-9 دننه مهاجرت وکړ، د لوړ کیفیت ترمیم، یو ښه یخولو سیسټم، د بریښنا ثابت رسولو او هیڅ دوړو سره سایټ ته لاړ، کوم چې مخکې په ټولو سطحو کې په موټی طبقو کې پراته وو او زموږ د تجهیزاتو داخلي برخې یې هم تړلې وې. . د کیفیت خدمتونه غوره کړئ - او هیڅ دوړې نه! - زموږ د حرکت لامل شو.

Uma.Tech څنګه زیربناوې رامینځته کړې

نږدې تل "یو حرکت د دوه اورونو سره مساوي وي" مګر د مهاجرت پرمهال ستونزې هر ځل توپیر لري. دا ځل، د یو ډیټا مرکز کې د حرکت کولو اصلي ستونزه د نظری کراس اتصالونو لخوا "وړاندې شوې" وه - د فرشونو ترمینځ د دوی کثرت پرته له دې چې د مخابراتو آپریټرانو لخوا په یو واحد کراس اتصال کې یوځای شي. د کراس اتصالونو د تازه کولو او بیا راټیټ کولو پروسه (چې د MMTS-9 انجینرانو له موږ سره مرسته کړې) شاید د مهاجرت ترټولو ستونزمن مرحله وه.

دوهم مهاجرت یو کال دمخه ترسره شو؛ په 2019 کې، موږ له خورا ښه ډیټا مرکز څخه O2xygen ته حرکت وکړ. د حرکت لاملونه د پورته بحثونو سره ورته وو، مګر دوی د مخابراتو آپریټرانو لپاره د اصلي ډیټا مرکز د ناخوښۍ له ستونزې سره ضمیمه شوي - ډیری وړاندیز کونکي باید پخپله دې ټکي ته "مخامخ" کړي.

Uma.Tech څنګه زیربناوې رامینځته کړې

په MMTS-13 کې د لوړ کیفیت سایټ ته د 9 ریکونو مهاجرت د دې امکان رامینځته کړی چې دا ځای نه یوازې د آپریټر موقعیت (یو څو ریکونه او د آپریټرانو "فارورډز") په توګه رامینځته کړي ، بلکه دا د یوې په توګه کارول کیږي. اصلي. دې کار یو څه د خورا ښه ډیټا مرکز څخه مهاجرت ساده کړ - موږ ډیری تجهیزات له دې څخه بل سایټ ته لیږدول ، او O2xygen ته د پرمختلونکي رول رول ورکړل شو ، هلته د تجهیزاتو سره 5 ریکونه لیږل.

نن ورځ O2xygen لا دمخه یو بشپړ پلیټ فارم دی ، چیرې چې هغه آپریټرونه چې موږ ورته اړتیا لرو "را رسیدلي" او نوي اړیکې ته دوام ورکوي. د آپریټرانو لپاره، O2xygen هم د ستراتیژیک پرمختګ له نظره په زړه پورې وګرځید.

موږ تل د حرکت اصلي مرحله په یوه شپه کې ترسره کوو، او کله چې د MMTS-9 او O2xygen دننه مهاجرت کوو، موږ دا قاعده تعقیب کړه. موږ ټینګار کوو چې موږ د ریکونو شمیر ته په پام سره د "شپې په اوږدو کې حرکت" قانون په کلکه تعقیب کوو! حتی یو مثال شتون درلود کله چې موږ 20 ریکونه حرکت وکړ او دا یې هم په یوه شپه کې بشپړ کړل. مهاجرت یو خورا ساده پروسه ده چې دقت او دوام ته اړتیا لري، مګر دلته ځینې چلونه شتون لري، دواړه د چمتو کولو په بهیر کې، او کله چې حرکت کوي، او کله چې نوي ځای ته ځای په ځای کیږي. موږ چمتو یو چې د مهاجرت په اړه په تفصیل سره خبرې وکړو که تاسو علاقه لرئ.

پایلې موږ پنځه کلن پرمختیایي پلانونه خوښوو. موږ د نوي نیمګړتیا لرونکي زیربنا جوړول بشپړ کړي چې په دریو ډیټا مرکزونو کې ویشل شوي. موږ د ترافیک کثافت په چټکۍ سره ډیر کړی - که پدې وروستیو کې موږ د 40U سره 80-2G سره خوښ یو ، اوس زموږ لپاره نورم د 100U سره 1G دی. اوس حتی د ټرافیک یو تیرایټ زموږ لخوا د معمول په توګه پیژندل کیږي. موږ چمتو یو چې زموږ زیربنا نوره هم پراختیا ومومي، کوم چې د انعطاف وړ او د توزیع وړ وي.

پوښتنه: ګرانو لوستونکو، په لاندې متن کې باید څه ووایم؟ د دې په اړه چې ولې موږ د کور ډیټا ذخیره کولو سیسټم رامینځته کول پیل کړل؟ د شبکې اصلي او د هغې ځانګړتیاو په اړه؟ د معلوماتو مرکزونو تر مینځ د مهاجرت چلونو او فرعياتو په اړه؟ د اجزاو غوره کولو او د ښه تنظیم کولو پیرامیټونو له لارې د تحویلي پریکړو اصلاح کولو په اړه؟ د دوامداره حلونو رامینځته کولو په اړه د ډیټا مرکز کې د ډیری بې ځایه کیدو او افقی اندازه کولو وړتیاو څخه مننه ، کوم چې د دریو ډیټا مرکزونو په جوړښت کې پلي کیږي؟

لیکوال: پیټر وینوګرادوف - د Uma.Tech تخنیکي رییس حمصران

سرچینه: www.habr.com

Add a comment