Qo'lsiz administrator = giperkonvergentsiya?

Qo'lsiz administrator = giperkonvergentsiya?
Qo'lsiz administrator = giperkonvergentsiya?

Bu server apparati sohasida juda keng tarqalgan afsona. Amalda, ko'p narsalar uchun giperkonverged echimlar (har bir narsa birida bo'lganda) kerak. Tarixiy jihatdan, birinchi arxitektura Amazon va Google tomonidan o'z xizmatlari uchun ishlab chiqilgan. Keyin g'oya har birining o'z disklariga ega bo'lgan bir xil tugunlardan hisoblash fermasini yaratish edi. Bularning barchasi tizimni tashkil etuvchi dasturiy ta'minot (gipervisor) tomonidan birlashtirilgan va virtual mashinalarga bo'lingan. Asosiy maqsad - bitta tugunga xizmat ko'rsatish uchun minimal kuch va masshtablashda minimal muammolar: shunchaki ming yoki ikkita bir xil serverlarni sotib oling va ularni yaqin atrofga ulang. Amalda, bu alohida holatlar va ko'pincha biz kamroq sonli tugunlar va biroz boshqacha arxitektura haqida gapiramiz.

Ammo ortiqcha narsa bir xil bo'lib qolmoqda - masshtablash va boshqarishning ajoyib qulayligi. Salbiy tomoni shundaki, turli vazifalar resurslarni har xil iste'mol qiladi va ba'zi joylarda mahalliy disklar ko'p bo'ladi, boshqalarida RAM kam bo'ladi va hokazo, ya'ni har xil turdagi vazifalar uchun resurslardan foydalanish kamayadi.

O'rnatish qulayligi uchun siz 10-15% ko'proq to'laysiz. Bu sarlavhadagi afsonani keltirib chiqardi. Biz texnologiya qayerda eng maqbul tarzda qo‘llanilishini izlab uzoq vaqt o‘tkazdik va uni topdik. Gap shundaki, Cisco o'zining saqlash tizimlariga ega emas edi, lekin ular to'liq server bozorini xohlashdi. Va ular Cisco Hyperflex - tugunlarda mahalliy saqlashga ega yechimni yaratdilar.

Va bu to'satdan zaxira ma'lumotlar markazlari uchun juda yaxshi yechim bo'lib chiqdi (Disaster Recovery). Nima uchun va qanday qilib hozir aytaman. Va men sizga klaster testlarini ko'rsataman.

Qaerda kerak

Giperkonvergentsiya bu:

  1. Disklarni hisoblash tugunlariga o'tkazish.
  2. Saqlash quyi tizimining virtualizatsiya quyi tizimi bilan to'liq integratsiyasi.
  3. Tarmoq quyi tizimi bilan uzatish/integratsiya.

Bu kombinatsiya virtualizatsiya darajasida va barchasini bitta boshqaruv oynasidan saqlash tizimining ko'plab xususiyatlarini amalga oshirish imkonini beradi.

Bizning kompaniyamizda ortiqcha ma'lumotlar markazlarini loyihalash bo'yicha loyihalar katta talabga ega va ko'pincha replikatsiya opsiyalari to'plami (metroklastergacha) tufayli giperkonverged yechim tanlanadi.

Zaxira ma'lumotlar markazlari bo'lsa, biz odatda shaharning narigi tomonidagi yoki umuman boshqa shahardagi saytdagi masofaviy ob'ekt haqida gapiramiz. Bu asosiy ma'lumotlar markazi qisman yoki to'liq ishlamay qolgan taqdirda muhim tizimlarni qayta tiklashga imkon beradi. Savdo ma'lumotlari u erda doimiy ravishda takrorlanadi va bu replikatsiya dastur darajasida yoki blokli qurilma (saqlash) darajasida bo'lishi mumkin.

Shuning uchun, endi men tizim dizayni va sinovlari haqida, so'ngra tejamkor ma'lumotlarga ega bo'lgan bir nechta real hayot stsenariylari haqida gapiraman.

Sinovlar

Bizning misolimiz to'rtta serverdan iborat bo'lib, ularning har birida 10 GB hajmli 960 ta SSD disk mavjud. Yozish operatsiyalarini keshlash va xizmat virtual mashinasini saqlash uchun maxsus disk mavjud. Yechimning o'zi to'rtinchi versiyadir. Birinchisi, ochig'ini aytganda, qo'pol (sharhlarga ko'ra), ikkinchisi nam, uchinchisi allaqachon barqaror va buni keng jamoatchilik uchun beta sinovi tugaganidan keyin chiqarilgan deb atash mumkin. Sinov paytida men hech qanday muammo ko'rmadim, hamma narsa soat kabi ishlaydi.

v4 da o'zgarishlarBir qator xatolar tuzatildi.

Dastlab, platforma faqat VMware ESXi gipervizori bilan ishlashi mumkin edi va oz sonli tugunlarni qo'llab-quvvatladi. Bundan tashqari, joylashtirish jarayoni har doim ham muvaffaqiyatli yakunlanmadi, ba'zi qadamlarni qayta boshlash kerak edi, eski versiyalardan yangilash bilan bog'liq muammolar bor edi, GUI ma'lumotlari har doim ham to'g'ri ko'rsatilmagan (garchi men hali ham ishlash grafiklarining namoyishidan mamnun emasman. ), ba'zida virtualizatsiya bilan interfeysda muammolar paydo bo'ldi.

Endi bolalikdagi barcha muammolar tuzatildi, HyperFlex ham ESXi, ham Hyper-V bilan ishlay oladi, bundan tashqari:

  1. Cho'zilgan klasterni yaratish.
  2. Fabric Interconnect-dan foydalanmasdan ofislar uchun klaster yaratish, ikkitadan to'rttagacha tugunlar (biz faqat serverlarni sotib olamiz).
  3. Tashqi xotira tizimlari bilan ishlash qobiliyati.
  4. Konteynerlar va Kubernetlarni qo'llab-quvvatlash.
  5. Mavjud zonalarni yaratish.
  6. Agar o'rnatilgan funksionallik qoniqarli bo'lmasa, VMware SRM bilan integratsiya.

Arxitektura asosiy raqobatchilarning echimlaridan unchalik farq qilmaydi, ular velosiped yaratmagan. Bularning barchasi VMware yoki Hyper-V virtualizatsiya platformasida ishlaydi. Uskuna xususiy Cisco UCS serverlarida joylashtirilgan. Dastlabki sozlashning nisbiy murakkabligi, ko'plab tugmalar, shablonlarning ahamiyatsiz tizimi va bog'liqliklari uchun platformani yomon ko'radiganlar bor, lekin Zenni o'rganganlar ham bor, ular bu g'oyadan ilhomlangan va endi buni xohlamaydilar. boshqa serverlar bilan ishlash uchun.

Biz VMware uchun yechimni ko'rib chiqamiz, chunki yechim dastlab u uchun yaratilgan va ko'proq funksionallikka ega; Hyper-V raqobatchilarga moslashish va bozor talablarini qondirish uchun yo'lda qo'shilgan.

Disklarga to'la serverlar klasteri mavjud. Ma'lumotlarni saqlash uchun disklar mavjud (SSD yoki HDD - sizning didingiz va ehtiyojlaringizga ko'ra), keshlash uchun bitta SSD disk mavjud. Ma'lumotlar omboriga ma'lumotlarni yozishda ma'lumotlar keshlash qatlamida saqlanadi (maxsus SSD disk va xizmat ko'rsatish VMning operativ xotirasi). Bunga parallel ravishda ma'lumotlar bloki klasterdagi tugunlarga yuboriladi (tugunlar soni klasterni replikatsiya omiliga bog'liq). Muvaffaqiyatli ro'yxatga olish to'g'risida barcha tugunlardan tasdiqlovdan so'ng, yozuvni tasdiqlash gipervisorga, keyin esa VMga yuboriladi. Yozilgan ma'lumotlar nusxalanadi, siqiladi va fonda saqlash disklariga yoziladi. Shu bilan birga, katta blok har doim saqlash disklariga va ketma-ket yoziladi, bu esa saqlash disklaridagi yukni kamaytiradi.

Tekshirish va siqish har doim yoqilgan va ularni o'chirib bo'lmaydi. Ma'lumotlar to'g'ridan-to'g'ri xotira disklaridan yoki RAM keshidan o'qiladi. Agar gibrid konfiguratsiya ishlatilsa, o'qishlar ham SSD-da keshlanadi.

Ma'lumotlar virtual mashinaning joriy joylashuviga bog'liq emas va tugunlar o'rtasida teng taqsimlanadi. Ushbu yondashuv barcha disklarni va tarmoq interfeyslarini teng ravishda yuklash imkonini beradi. Aniq kamchilik bor: biz o'qishning kechikishini imkon qadar kamaytira olmaymiz, chunki mahalliy ma'lumotlar mavjudligiga kafolat yo'q. Lekin men bu olingan foyda bilan solishtirganda kichik qurbonlik ekanligiga ishonaman. Bundan tashqari, tarmoqdagi kechikishlar shunday qiymatlarga yetdiki, ular amalda umumiy natijaga ta'sir qilmaydi.

Har bir saqlash tugunida yaratilgan maxsus xizmat VM Cisco HyperFlex Data Platform kontrolleri disk quyi tizimining butun ish mantig'i uchun javobgardir. Xizmatimizning VM konfiguratsiyasida sakkizta vCPU va 72 GB operativ xotira ajratilgan, bu unchalik kam emas. Eslatib o'taman, xostning o'zida 28 ta jismoniy yadro va 512 Gb tezkor xotira mavjud.

Xizmat VM SAS kontrollerini VM ga yo'naltirish orqali to'g'ridan-to'g'ri jismoniy disklarga kirish huquqiga ega. Gipervisor bilan aloqa kiritish-chiqarish operatsiyalarini ushlab turuvchi IOVisor maxsus moduli va gipervisor API ga buyruqlar yuborish imkonini beruvchi agent yordamida amalga oshiriladi. Agent HyperFlex suratlari va klonlari bilan ishlash uchun javobgardir.

Disk resurslari gipervisorda NFS yoki SMB ulushlari sifatida o'rnatiladi (gipervisor turiga qarab, qaysi biri qaerda ekanligini taxmin qiling). Va qopqoq ostida, bu kattalar uchun to'liq huquqli saqlash tizimlarining xususiyatlarini qo'shish imkonini beruvchi taqsimlangan fayl tizimi: ingichka hajmni ajratish, siqish va deuplikatsiya, Redirect-on-Write texnologiyasidan foydalangan holda suratlar, sinxron/asinxron replikatsiya.

Xizmat VM HyperFlex quyi tizimining WEB boshqaruv interfeysiga kirishni ta'minlaydi. VCenter bilan integratsiya mavjud va undan kundalik vazifalarning ko'pini bajarish mumkin, ammo ma'lumotlar do'konlari, masalan, agar siz allaqachon tezkor HTML5 interfeysiga o'tgan bo'lsangiz yoki to'liq huquqli Flash mijozidan foydalansangiz, alohida veb-kameradan kesish qulayroqdir. to'liq integratsiya bilan. Xizmat veb-kamerasida siz tizimning ishlashi va batafsil holatini ko'rishingiz mumkin.

Qo'lsiz administrator = giperkonvergentsiya?

Klasterda tugunning yana bir turi mavjud - hisoblash tugunlari. Bular o'rnatilgan disklari bo'lmagan rack yoki blade serverlar bo'lishi mumkin. Ushbu serverlar ma'lumotlari disklari bo'lgan serverlarda saqlanadigan VMlarni ishga tushirishi mumkin. Ma'lumotlarga kirish nuqtai nazaridan tugunlar turlari o'rtasida farq yo'q, chunki arxitektura ma'lumotlarning jismoniy joylashuvidan abstraktsiyani o'z ichiga oladi. Hisoblash tugunlarining saqlash tugunlariga maksimal nisbati 2:1 ni tashkil qiladi.

Hisoblash tugunlaridan foydalanish klaster resurslarini masshtablashda moslashuvchanlikni oshiradi: agar bizga faqat CPU/RAM kerak bo'lsa, disklar bilan qo'shimcha tugunlarni sotib olishimiz shart emas. Bundan tashqari, biz pichoq qafasini qo'shishimiz va serverlarni rafga joylashtirishda tejashimiz mumkin.

Natijada, bizda quyidagi xususiyatlarga ega giperkonvergent platforma mavjud:

  • Klasterda 64 tagacha tugun (32 tagacha saqlash tugunlari).
  • Klasterdagi tugunlarning minimal soni uchta (Edge klasteri uchun ikkita).
  • Ma'lumotlarning ortiqcha mexanizmi: 2 va 3 replikatsiya faktorlari bilan aks ettirish.
  • Metro klasteri.
  • Boshqa HyperFlex klasteriga asinxron VM replikatsiyasi.
  • VMlarni masofaviy ma'lumotlar markaziga almashtirishni tashkil qilish.
  • Redirect-on-Write texnologiyasidan foydalangan holda mahalliy suratlar.
  • Replikatsiya koeffitsienti 1 bo'yicha va biriktirmasdan foydalanish mumkin bo'lgan 3 PB gacha bo'sh joy. Biz 2-replikatsiya omilini hisobga olmaymiz, chunki bu jiddiy savdo uchun imkoniyat emas.

Yana bir katta ortiqcha - boshqarish va joylashtirishning qulayligi. UCS serverlarini sozlashning barcha murakkabliklari Cisco muhandislari tomonidan tayyorlangan ixtisoslashtirilgan VM tomonidan hal qilinadi.

Sinov dastgohi konfiguratsiyasi:

  • Boshqaruv klasteri va tarmoq komponentlari sifatida 2 x Cisco UCS Fabric Interconnect 6248UP (Ethernet 48G/FC 10G rejimida ishlaydigan 16 port).
  • To'rtta Cisco UCS HXAF240 M4 serverlari.

Server xususiyatlari:

Markaziy protsessor

2 x Intel® Xeon® E5-2690 v4

Ram

16 x 32 GB DDR4-2400-MHz RDIMM/PC4-19200/ikki darajali/x4/1.2v

tarmoq

UCSC-MLOM-CSC-02 (VIC 1227). 2 ta 10G Ethernet portlari

HBA saqlash

Cisco 12G modulli SAS Controller orqali o'tadi

Saqlash disklari

1 x SSD Intel S3520 120 GB, 1 x SSD Samsung MZ-IES800D, 10 x SSD Samsung PM863a 960 GB

Qo'shimcha konfiguratsiya imkoniyatlariTanlangan uskunadan tashqari, hozirda quyidagi variantlar mavjud:

  • HXAF240c M5.
  • Intel Silver 4110 dan Intel Platinum I8260Y gacha bo'lgan bir yoki ikkita protsessor. Ikkinchi avlod mavjud.
  • 24 xotira uyasi, 16 GB RDIMM 2600 dan 128 GB LRDIMM 2933 gacha bo'lgan chiziqlar.
  • 6 dan 23 gacha ma'lumot disklari, bitta keshlash diski, bitta tizim diski va bitta yuklash diski.

Imkoniyatli drayverlar

  • HX-SD960G61X-EV 960GB 2.5 dyuymli Enterprise qiymati 6G SATA SSD (1X chidamlilik) SAS 960 GB.
  • HX-SD38T61X-EV 3.8TB 2.5 dyuymli Enterprise Value 6G SATA SSD (1X chidamlilik) SAS 3.8 TB.
  • Disklarni keshlash
  • HX-NVMEXPB-I375 375 GB 2.5 dyuymli Intel Optane Drive, Extreme Perf & Endurance.
  • HX-NVMEHW-H1600* 1.6TB 2.5 dyuymli Ent. Perf. NVMe SSD (3X chidamlilik) NVMe 1.6 TB.
  • HX-SD400G12TX-EP 400GB 2.5 dyuymli Ent. Perf. 12G SAS SSD (10X chidamlilik) SAS 400 GB.
  • HX-SD800GBENK9** 800GB 2.5 dyuymli Ent. Perf. 12G SAS SED SSD (10X chidamlilik) SAS 800 GB.
  • HX-SD16T123X-EP 1.6TB 2.5 dyuymli korporativ unumdorlik 12G SAS SSD (3X chidamlilik).

Tizim/jurnal drayverlari

  • HX-SD240GM1X-EV 240GB 2.5 dyuymli Enterprise Value 6G SATA SSD (yangilashni talab qiladi).

Yuklash disklari

  • HX-M2-240GB 240GB SATA M.2 SSD SATA 240 GB.

40G, 25G yoki 10G Ethernet portlari orqali tarmoqqa ulaning.

FI HX-FI-6332 (40G), HX-FI-6332-16UP (40G), HX-FI-6454 (40G/100G) boʻlishi mumkin.

Sinovning o'zi

Disk quyi tizimini sinab ko'rish uchun men HCIBench 2.2.1 dan foydalandim. Bu bir nechta virtual mashinalardan yuk yaratishni avtomatlashtirishga imkon beruvchi bepul yordamchi dastur. Yukning o'zi odatiy fio tomonidan ishlab chiqariladi.

Bizning klasterimiz to'rtta tugundan iborat, replikatsiya omili 3, barcha disklar Flash.

Sinov uchun men to'rtta ma'lumotlar ombori va sakkizta virtual mashinani yaratdim. Yozish testlari uchun keshlash diski to'liq emas deb taxmin qilinadi.

Sinov natijalari quyidagicha:

100% o'qish 100% tasodifiy

0% O'qish 100% Tasodifiy

Blok/navbat chuqurligi

128

256

512

1024

2048

128

256

512

1024

2048

4K

0,59 ms 213804 IOPS

0,84 ms 303540 IOPS

1,36 ms 374348 IOPS

2.47 ms 414116 IOPS

4,86 ms 420180 IOPS

2,22 ms 57408 IOPS

3,09 ms 82744 IOPS

5,02 ms 101824 IPOS

8,75 ms 116912 IOPS

17,2 ms 118592 IOPS

8K

0,67 ms 188416 IOPS

0,93 ms 273280 IOPS

1,7 ms 299932 IOPS

2,72 ms 376,484 IOPS

5,47 ms 373,176 IOPS

3,1 ms 41148 IOPS

4,7 ms 54396 IOPS

7,09 ms 72192 IOPS

12,77 ms 80132 IOPS

16K

0,77 ms 164116 IOPS

1,12 ms 228328 IOPS

1,9 ms 268140 IOPS

3,96 ms 258480 IOPS

3,8 ms 33640 IOPS

6,97 ms 36696 IOPS

11,35 ms 45060 IOPS

32K

1,07 ms 119292 IOPS

1,79 ms 142888 IOPS

3,56 ms 143760 IOPS

7,17 ms 17810 IOPS

11,96 ms 21396 IOPS

64K

1,84 ms 69440 IOPS

3,6 ms 71008 IOPS

7,26 ms 70404 IOPS

11,37 ms 11248 IOPS

Qalin belgilar qiymatlarni ko'rsatadi, shundan keyin unumdorlikning o'sishi kuzatilmaydi, ba'zida hatto tanazzul ko'rinadi. Buning sababi, biz tarmoq/kontrollerlar/disklarning ishlashi bilan cheklanganmiz.

  • Ketma-ket o'qish 4432 MB/s.
  • Ketma-ket yozish 804 MB/s.
  • Agar bitta kontroller ishlamay qolsa (virtual mashina yoki xost ishlamay qolsa), unumdorlik ikki baravar pasayadi.
  • Saqlash diski muvaffaqiyatsiz bo'lsa, tushirish 1/3 ni tashkil qiladi. Diskni qayta tiklash har bir kontroller resurslarining 5 foizini oladi.

Kichkina blokda biz tekshirgichning (virtual mashina) ishlashi bilan cheklanamiz, uning protsessori 100% ga yuklanadi va blok kattalashganda biz portning tarmoqli kengligi bilan cheklanamiz. AllFlash tizimining imkoniyatlarini ochish uchun 10 Gbit / s etarli emas. Afsuski, taqdim etilgan demo stend parametrlari 40 Gbit/s tezlikda ishlashni sinab ko'rishga imkon bermaydi.

Sinovlardan va arxitekturani o'rganishdan olgan taassurotimga ko'ra, barcha xostlar o'rtasida ma'lumotlarni joylashtiradigan algoritm tufayli biz kengaytiriladigan, oldindan aytib bo'ladigan ishlashga erishamiz, ammo bu o'qishda ham cheklovdir, chunki mahalliy disklardan ko'proq siqib chiqarish mumkin edi, bu erda u yanada samarali tarmoqni tejashi mumkin, masalan, 40 Gbit/s tezlikda FI mavjud.

Bundan tashqari, keshlash va detuplikatsiya uchun bitta disk cheklov bo'lishi mumkin; aslida, ushbu sinov maydonida biz to'rtta SSD diskiga yozishimiz mumkin. Keshlash drayverlari sonini ko'paytirish va farqni ko'rish juda yaxshi bo'lardi.

Haqiqiy foydalanish

Zaxira ma'lumotlar markazini tashkil qilish uchun siz ikkita yondashuvdan foydalanishingiz mumkin (zaxirani uzoq saytga joylashtirishni hisobga olmaymiz):

  1. Faol-passiv. Barcha ilovalar asosiy ma'lumotlar markazida joylashgan. Replikatsiya sinxron yoki asinxrondir. Agar asosiy ma'lumotlar markazi ishlamay qolsa, biz zaxira nusxasini faollashtirishimiz kerak. Bu qo'lda/skriptlar/orkestratsiya ilovalari bilan amalga oshirilishi mumkin. Bu erda biz replikatsiya chastotasiga mos keladigan RPO ni olamiz va RTO ma'murning reaktsiyasi va ko'nikmalariga va kommutatsiya rejasini ishlab chiqish / disk raskadrovka sifatiga bog'liq.
  2. Faol-faol. Bunday holda, faqat sinxron replikatsiya mavjud; ma'lumotlar markazlarining mavjudligi qat'iy ravishda uchinchi saytda joylashgan kvorum/arbitr tomonidan belgilanadi. RPO = 0 va RTO 0 ga yetishi mumkin (agar ilova ruxsat bersa) yoki virtualizatsiya klasteridagi tugunning uzilish vaqtiga teng. Virtualizatsiya darajasida Active-Active saqlashni talab qiluvchi cho'zilgan (Metro) klaster yaratiladi.

Odatda biz mijozlar asosiy ma'lumotlar markazida klassik saqlash tizimiga ega arxitekturani allaqachon amalga oshirganligini ko'ramiz, shuning uchun biz takrorlash uchun boshqasini loyihalashtiramiz. Yuqorida aytib o'tganimdek, Cisco HyperFlex asinxron replikatsiya va kengaytirilgan virtualizatsiya klasterini yaratishni taklif qiladi. Shu bilan birga, bizga qimmat replikatsiya funktsiyalari va ikkita saqlash tizimida faol-faol ma'lumotlarga kirish imkoniyatiga ega bo'lgan Midrange va undan yuqori darajadagi maxsus saqlash tizimi kerak emas.

1-stsenariy: Bizda asosiy va zahiraviy maʼlumotlar markazlari, VMware vSphere’da virtualizatsiya platformasi mavjud. Barcha samarali tizimlar asosiy ma'lumotlar markazida joylashgan va virtual mashinalarning replikatsiyasi gipervisor darajasida amalga oshiriladi, bu zahiraviy ma'lumotlar markazida VM larni yoqilgan holda saqlashni oldini oladi. Biz o'rnatilgan vositalar yordamida ma'lumotlar bazalari va maxsus ilovalarni ko'paytiramiz va VMlarni yoqilgan holda ushlab turamiz. Agar asosiy ma'lumotlar markazi ishlamay qolsa, biz zaxira ma'lumotlar markazida tizimlarni ishga tushiramiz. Bizda 100 ga yaqin virtual mashinalar borligiga ishonamiz. Birlamchi maʼlumotlar markazi ishlayotgan boʻlsada, kutish rejimidagi maʼlumotlar markazi sinov muhitini va asosiy maʼlumotlar markazi oʻzgarganda oʻchirilishi mumkin boʻlgan boshqa tizimlarni ishga tushirishi mumkin. Ikki tomonlama replikatsiyadan foydalanishimiz ham mumkin. Uskuna nuqtai nazaridan, hech narsa o'zgarmaydi.

Klassik arxitekturada biz har bir maʼlumot markaziga FibreChannel orqali kirish, sathlash, deuplikatsiya va siqish (lekin onlayn emas), har bir sayt uchun 8 ta server, 2 ta FibreChannel kaliti va 10G Ethernet orqali kirish imkoniyatiga ega gibrid saqlash tizimini oʻrnatamiz. Klassik arxitekturada replikatsiya va kommutatsiyani boshqarish uchun biz VMware vositalari (Replikatsiya + SRM) yoki uchinchi tomon vositalaridan foydalanishimiz mumkin, ular biroz arzonroq va ba'zan qulayroq bo'ladi.

Rasmda diagramma ko'rsatilgan.

Qo'lsiz administrator = giperkonvergentsiya?

Cisco HyperFlex-dan foydalanganda quyidagi arxitektura olinadi:

Qo'lsiz administrator = giperkonvergentsiya?

HyperFlex uchun men katta CPU/RAM resurslariga ega serverlardan foydalanardim, chunki... Resurslarning bir qismi HyperFlex kontroller VM-ga o'tadi; CPU va xotira nuqtai nazaridan men Cisco bilan birga o'ynamaslik va qolgan VMlar uchun resurslarni kafolatlamaslik uchun HyperFlex konfiguratsiyasini biroz qayta sozladim. Ammo biz FibreChannel kalitlaridan voz kechishimiz mumkin va har bir server uchun Ethernet portlari kerak emas; mahalliy trafik FI ichida almashtiriladi.

Natijada har bir ma'lumot markazi uchun quyidagi konfiguratsiya paydo bo'ldi:

Serverlar

8 x 1U server (384 GB operativ xotira, 2 x Intel Gold 6132, FC HBA)

8 x HX240C-M5L (512 GB operativ xotira, 2 x Intel Gold 6150, 3,2 GB SSD, 10 x 6 TB NL-SAS)

Saqlash

FC Front-End bilan gibrid saqlash tizimi (20TB SSD, 130TB NL-SAS)

-

LAN

2 x Ethernet kaliti 10G 12 port

-

San

2 x FC kaliti 32/16 Gb 24 port

2 x Cisco UCS FI 6332

Litsenziyalar

VMware Ent Plus

VM almashtirishning replikatsiyasi va/yoki orkestratsiyasi

VMware Ent Plus

Men Hyperflex uchun replikatsiya dasturiy ta'minoti litsenziyalarini bermadim, chunki bu bizda mavjud.

Klassik arxitektura uchun men o'zini yuqori sifatli va arzon ishlab chiqaruvchi sifatida ko'rsatgan sotuvchini tanladim. Ikkala variant uchun ham men ma'lum bir yechim uchun standart chegirmani qo'lladim va natijada haqiqiy narxlarni oldim.

Cisco HyperFlex yechimi 13% arzonroq bo'lib chiqdi.

2-stsenariy: ikkita faol ma'lumotlar markazlarini yaratish. Ushbu stsenariyda biz VMware-da kengaytirilgan klasterni loyihalashtirmoqdamiz.

Klassik arxitektura virtualizatsiya serverlari, SAN (FC protokoli) va ikkita saqlash tizimidan iborat bo'lib, ular o'rtasida cho'zilgan hajmgacha o'qish va yozish mumkin. Har bir saqlash tizimida biz saqlash uchun foydali sig'imni joylashtiramiz.

Qo'lsiz administrator = giperkonvergentsiya?

HyperFlex-da biz shunchaki ikkala saytda bir xil sonli tugunlarga ega Stretch Cluster yaratamiz. Bunda 2+2 replikatsiya koeffitsienti qo'llaniladi.

Qo'lsiz administrator = giperkonvergentsiya?

Natijada quyidagi konfiguratsiya:

klassik arxitektura

HyperFlex

Serverlar

16 x 1U server (384 GB operativ xotira, 2 x Intel Gold 6132, FC HBA, 2 x 10G NIC)

16 x HX240C-M5L (512 GB operativ xotira, 2 x Intel Gold 6132, 1,6 TB NVMe, 12 x 3,8 TB SSD, VIC 1387)

Saqlash

2 x AllFlash saqlash tizimlari (150 TB SSD)

-

LAN

4 x Ethernet kaliti 10G 24 port

-

San

4 x FC kaliti 32/16 Gb 24 port

4 x Cisco UCS FI 6332

Litsenziyalar

VMware Ent Plus

VMware Ent Plus

Barcha hisob-kitoblarda men tarmoq infratuzilmasini, ma'lumotlar markazi xarajatlarini va hokazolarni hisobga olmadim: ular klassik arxitektura va HyperFlex yechimi uchun bir xil bo'ladi.

Narxlari bo'yicha HyperFlex 5% qimmatroq bo'lib chiqdi. Shuni ta'kidlash kerakki, protsessor/RAM resurslari nuqtai nazaridan men Cisco-ga e'tibor qaratdim, chunki konfiguratsiyada men xotira boshqaruvchisi kanallarini teng ravishda to'ldirdim. Narx biroz yuqoriroq, ammo kattalik tartibida emas, bu giperkonvergentsiya "boylar uchun o'yinchoq" emasligini aniq ko'rsatib turibdi, lekin ma'lumotlar markazini qurishda standart yondashuv bilan raqobatlasha oladi. Bu Cisco UCS serverlari va ular uchun mos infratuzilmaga ega bo'lganlar uchun ham qiziq bo'lishi mumkin.

Afzalliklar qatorida biz SAN va saqlash tizimlarini boshqarish uchun xarajatlarning yo'qligi, onlayn siqish va deuplikatsiya, qo'llab-quvvatlash uchun yagona kirish nuqtasi (virtualizatsiya, serverlar, ular ham saqlash tizimlari), joyni tejash (lekin barcha stsenariylarda emas), operatsiyani soddalashtirish.

Qo'llab-quvvatlashga kelsak, bu erda siz uni bitta sotuvchidan olasiz - Cisco. Cisco UCS serverlari bilan bo'lgan tajribamga ko'ra, menga yoqadi; uni HyperFlex-da ochishim shart emas edi, hammasi bir xil ishladi. Muhandislar zudlik bilan javob berishadi va nafaqat odatiy muammolarni, balki murakkab chekka holatlarni ham hal qilishlari mumkin. Ba'zida men ularga savollar bilan murojaat qilaman: "Buni qilish mumkinmi, buralib qo'ying?" yoki “Men bu yerda biror narsani sozladim va u ishlamoqchi emas. Yordam bering!" - ular sabr-toqat bilan u erda kerakli qo'llanmani topadilar va to'g'ri harakatlarni ko'rsatadilar, ular javob bermaydilar: "Biz faqat apparat muammolarini hal qilamiz."

Manbalar

Manba: www.habr.com

a Izoh qo'shish