Handsfree admin = гиперконвергенция?

Handsfree admin = гиперконвергенция?
Handsfree admin = гиперконвергенция?

Бұл серверлік жабдық саласында жиі кездесетін миф. Тәжірибеде гиперконвергентті шешімдер (бәрі бір жерде болғанда) көп нәрсе үшін қажет. Тарихи тұрғыдан алғанда, алғашқы архитектураларды өз қызметтері үшін Amazon және Google жасаған. Содан кейін әрқайсысының жеке дискілері бар бірдей түйіндерден есептеу фермасын жасау идеясы болды. Осының барлығын кейбір жүйе құраушы бағдарламалық қамтамасыз ету (гипервизор) біріктіріп, виртуалды машиналарға бөлінді. Негізгі мақсат - бір түйінге қызмет көрсетуге жұмсалатын ең аз күш және масштабтау кезінде ең аз проблемалар: тағы бір мың немесе екі бірдей серверді сатып алып, оларды жақын жерде қосыңыз. Іс жүзінде бұл оқшауланған жағдайлар және көбінесе біз түйіндердің аз саны мен сәл өзгеше архитектура туралы айтып отырмыз.

Бірақ плюс өзгеріссіз қалады - масштабтау мен басқарудың керемет қарапайымдылығы. Кемшілігі әр түрлі тапсырмалар ресурстарды әр түрлі тұтынады және кейбір жерлерде жергілікті дискілер көп болады, басқаларында жедел жады аз болады және т.б., яғни тапсырмалардың әртүрлі түрлері үшін ресурстарды пайдалану азаяды.

Орнату жеңілдігі үшін сіз 10-15% артық төлейсіз. Бұл тақырыптағы мифті тудырды. Біз технологияның қай жерде оңтайлы қолданылатынын ұзақ уақыт іздедік және оны таптық. Өйткені, Cisco-ның жеке сақтау жүйелері болмаған, бірақ олар толық сервер нарығын қалаған. Және олар Cisco Hyperflex жасады - түйіндерде жергілікті сақтау орны бар шешім.

Бұл кенеттен деректер орталықтарының сақтық көшірмесін жасау үшін өте жақсы шешім болды (Disaster Recovery). Мен сізге неге және қалай екенін айтамын. Ал мен сендерге кластерлік тесттерді көрсетемін.

Қажет жерде

Гиперконвергенция дегеніміз:

  1. Дискілерді есептеу түйіндеріне тасымалдау.
  2. Сақтау ішкі жүйесінің виртуалдандыру ішкі жүйесімен толық интеграциясы.
  3. Желілік ішкі жүйемен тасымалдау/интеграциялау.

Бұл комбинация виртуалдандыру деңгейінде және барлығын бір басқару терезесінен сақтау жүйесінің көптеген мүмкіндіктерін іске асыруға мүмкіндік береді.

Біздің компанияда артық деректер орталықтарын жобалау жобалары үлкен сұранысқа ие және қораптан тыс репликация опцияларының (метропластерге дейін) байланысты гиперконвергентті шешім жиі таңдалады.

Сақтық көшірме деректер орталықтары жағдайында біз әдетте қаланың екінші жағындағы немесе мүлде басқа қаладағы сайттағы қашықтағы нысан туралы айтып отырмыз. Ол негізгі деректер орталығының ішінара немесе толық істен шығуы кезінде маңызды жүйелерді қалпына келтіруге мүмкіндік береді. Онда сату деректері үнемі қайталанады және бұл репликация қолданба деңгейінде немесе блоктық құрылғы (сақтау) деңгейінде болуы мүмкін.

Сондықтан қазір мен жүйенің дизайны мен сынақтары туралы, содан кейін жинақ деректері бар бірнеше нақты өмірлік қолданба сценарийлері туралы сөйлесетін боламын.

Тесттер

Біздің данамыз төрт серверден тұрады, олардың әрқайсысында 10 ГБ 960 SSD дискісі бар. Жазу операцияларын кэштеу және сервистік виртуалды машинаны сақтау үшін арнайы диск бар. Шешімнің өзі төртінші нұсқа. Біріншісі, шынын айтқанда, өрескел (пікірлерге қарағанда), екіншісі - ылғалды, үшіншісі - қазірдің өзінде тұрақты және оны жалпы жұртшылық үшін бета-тестілеу аяқталғаннан кейін шығарылым деп атауға болады. Тестілеу кезінде мен ешқандай ақауларды көрмедім, барлығы сағат сияқты жұмыс істейді.

v4 нұсқасындағы өзгерістерБірқатар қателер түзетілді.

Бастапқыда платформа тек VMware ESXi гипервизорымен жұмыс істей алады және аздаған түйіндерге қолдау көрсетті. Сондай-ақ, орналастыру процесі әрқашан сәтті аяқталмады, кейбір қадамдарды қайта бастау керек болды, ескі нұсқалардан жаңартуда проблемалар болды, GUI деректері әрқашан дұрыс көрсетілмейді (бірақ мен өнімділік графиктерінің көрсетілуіне әлі де риза емеспін) ), кейде виртуализация интерфейсінде проблемалар туындады.

Енді балалық шақтың барлық мәселелері шешілді, HyperFlex ESXi және Hyper-V екеуін де өңдей алады, сонымен қатар:

  1. Созылған кластер құру.
  2. Fabric Interconnect қолданбай кеңселер үшін кластер жасау, екіден төрт түйінге дейін (біз тек серверлерді сатып аламыз).
  3. Сыртқы сақтау жүйелерімен жұмыс істеу мүмкіндігі.
  4. Контейнерлер мен Кубернеттерді қолдау.
  5. Қолжетімділік аймақтарын құру.
  6. Кірістірілген функционалдылық қанағаттанарлық болмаса, VMware SRM бағдарламасымен интеграция.

Архитектура оның негізгі бәсекелестерінің шешімдерінен айтарлықтай ерекшеленбейді, олар велосипед жасаған жоқ. Оның барлығы VMware немесе Hyper-V виртуализация платформасында жұмыс істейді. Аппараттық құрал меншікті Cisco UCS серверлерінде орналастырылған. Бастапқы орнатудың салыстырмалы күрделілігі, көптеген түймелер, шаблондар мен тәуелділіктердің тривиальды емес жүйесі үшін платформаны жек көретіндер бар, бірақ сонымен қатар Zen тілін үйреніп, идеядан шабыттанған және енді оны қаламайтындар да бар. басқа серверлермен жұмыс істеу.

Біз VMware үшін шешімді қарастырамыз, өйткені шешім бастапқыда ол үшін жасалған және оның функционалдығы көп; Hyper-V бәсекелестерге ілесу және нарықтық үміттерді қанағаттандыру үшін жол бойына қосылды.

Дискілерге толы серверлер кластері бар. Деректерді сақтауға арналған дискілер бар (SSD немесе HDD - сіздің талғамыңыз бен қажеттіліктеріңізге сәйкес), кэштеу үшін бір SSD дискі бар. Деректер қоймасына деректерді жазу кезінде деректер кэштеу қабатында сақталады (арнайы SSD дискі және қызмет көрсету VM жедел жады). Параллельді түрде деректер блогы кластердегі түйіндерге жіберіледі (түйіндердің саны кластердің репликация факторына байланысты). Барлық түйіндерден сәтті жазу туралы растаудан кейін жазбаның растауы гипервизорға, содан кейін VM-ге жіберіледі. Жазылған деректер көшіріледі, қысылады және фондық режимде сақтау дискілеріне жазылады. Сонымен бірге үлкен блок әрқашан сақтау дискілеріне және ретімен жазылады, бұл сақтау дискілеріне жүктемені азайтады.

Қайталау және қысу әрқашан қосулы және өшіру мүмкін емес. Деректер тікелей сақтау дискілерінен немесе жедел жад кэшінен оқылады. Гибридті конфигурация пайдаланылса, оқу деректері де SSD дискісінде кэштеледі.

Деректер виртуалды машинаның ағымдағы орнына байланысты емес және түйіндер арасында біркелкі таратылады. Бұл тәсіл барлық дискілерді және желі интерфейстерін бірдей жүктеуге мүмкіндік береді. Айқын кемшілігі бар: біз оқу кідірісін мүмкіндігінше азайта алмаймыз, өйткені жергілікті деректердің қолжетімділігіне кепілдік жоқ. Бірақ бұл алынған пайдамен салыстырғанда аз құрбандық деп есептеймін. Сонымен қатар, желілік кешігулер жалпы нәтижеге іс жүзінде әсер етпейтін мәндерге жетті.

Әрбір сақтау түйінінде жасалған арнайы сервис VM Cisco HyperFlex Data Platform контроллері дискілік ішкі жүйенің бүкіл жұмыс логикасына жауап береді. Біздің қызметіміздің VM конфигурациясында сегіз vCPU және 72 ГБ жедел жады бөлінді, бұл аз емес. Еске сала кетейін, хосттың өзінде 28 физикалық ядро ​​және 512 ГБ жедел жады бар.

VM сервисі SAS контроллерін VM жүйесіне қайта жіберу арқылы физикалық дискілерге тікелей қол жеткізе алады. Гипервизормен байланыс енгізу/шығару операцияларын тоқтататын арнайы IOVisor модулі арқылы және гипервизордың API интерфейсіне командаларды жіберуге мүмкіндік беретін агентті пайдалану арқылы жүзеге асады. Агент HyperFlex суреттерімен және клондарымен жұмыс істеуге жауапты.

Диск ресурстары гипервизорда NFS немесе SMB үлестері ретінде орнатылады (гипервизор түріне байланысты, қайсысы қай жерде екенін табыңыз). Сонымен қатар, бұл ересектерге арналған толыққанды сақтау жүйелерінің мүмкіндіктерін қосуға мүмкіндік беретін бөлінген файлдық жүйе: жіңішке көлемді бөлу, қысу және қайталау, Redirect-on-Write технологиясын қолданатын суреттер, синхронды/асинхронды репликация.

VM қызметі HyperFlex ішкі жүйесінің WEB басқару интерфейсіне қол жеткізуді қамтамасыз етеді. vCenter-пен интеграция бар және күнделікті тапсырмалардың көпшілігін одан орындауға болады, бірақ деректер қоймалары, мысалы, жылдам HTML5 интерфейсіне ауысқан болсаңыз немесе толыққанды Flash клиентін пайдалансаңыз, бөлек веб-камерадан қиып алу ыңғайлырақ. толық интеграциямен. Қызметтік веб-камерада сіз жүйенің өнімділігін және егжей-тегжейлі күйін көре аласыз.

Handsfree admin = гиперконвергенция?

Кластерде түйіннің тағы бір түрі бар – есептеу түйіндері. Бұл кірістірілген дискілері жоқ тірек немесе пышақ серверлері болуы мүмкін. Бұл серверлер деректері дискілері бар серверлерде сақталған VM құрылғыларын іске қоса алады. Деректерге қол жеткізу тұрғысынан түйіндердің түрлерінің айырмашылығы жоқ, себебі архитектура деректердің физикалық орналасуынан абстракциялауды қамтиды. Есептеу түйіндерінің сақтау түйіндеріне максималды қатынасы 2:1 құрайды.

Есептеу түйіндерін пайдалану кластерлік ресурстарды масштабтау кезінде икемділікті арттырады: егер бізге тек CPU/RAM қажет болса, дискілері бар қосымша түйіндерді сатып алудың қажеті жоқ. Бұған қоса, біз пышақ торын қосып, серверлерді сөреде орналастыруды үнемдей аламыз.

Нәтижесінде бізде келесі мүмкіндіктері бар гиперконвергентті платформа бар:

  • Кластердегі 64 түйінге дейін (32 сақтау түйініне дейін).
  • Кластердегі түйіндердің ең аз саны - үш (Edge кластері үшін екі).
  • Деректердің артық болуы механизмі: 2 және 3 репликация факторымен көшіру.
  • Метро кластері.
  • Басқа HyperFlex кластеріне асинхронды VM репликациясы.
  • VM-ді қашықтағы деректер орталығына ауыстыруды ұйымдастыру.
  • Redirect-on-Write технологиясын қолданатын жергілікті суреттер.
  • 1 репликация факторында және дедупликациясыз 3 ПБ дейін пайдалы кеңістік. Біз 2-репликация факторын ескермейміз, себебі бұл елеулі сатылымдар үшін опция емес.

Тағы бір үлкен плюс - басқару мен орналастырудың қарапайымдылығы. UCS серверлерін орнатудың барлық қиындықтарын Cisco инженерлері дайындаған мамандандырылған VM шешеді.

Сынақ үстелінің конфигурациясы:

  • Басқару кластері және желі құрамдастары ретінде 2 x Cisco UCS Fabric Interconnect 6248UP (Ethernet 48G/FC 10G режимінде жұмыс істейтін 16 порт).
  • Төрт Cisco UCS HXAF240 M4 сервері.

Сервер сипаттамалары:

Орталық Есептеуіш Бөлім

2 x Intel® Xeon® E5-2690 v4

Жедел Жадтау Құрылғысы

16 x 32 ГБ DDR4-2400-МГц RDIMM/PC4-19200/қос дәрежелі/x4/1.2в

Желі

UCSC-MLOM-CSC-02 (VIC 1227). 2 10G Ethernet порты

HBA сақтау орны

Cisco 12G модульдік SAS контроллері арқылы өтеді

Сақтау дискілері

1 x SSD Intel S3520 120 ГБ, 1 x SSD Samsung MZ-IES800D, 10 x SSD Samsung PM863a 960 ГБ

Қосымша конфигурация опцияларыТаңдалған жабдыққа қоса, қазіргі уақытта келесі опциялар қол жетімді:

  • HXAF240c M5.
  • Intel Silver 4110 бастап Intel Platinum I8260Y дейін бір немесе екі процессор. Екінші буын қол жетімді.
  • 24 жад ұясы, 16 ГБ RDIMM 2600 бастап 128 ГБ LRDIMM 2933 жолақтары.
  • 6-дан 23-ке дейін деректер дискілері, бір кэштеу дискісі, бір жүйелік диск және бір жүктеу дискісі.

Сыйымдылық жетектері

  • HX-SD960G61X-EV 960 ГБ 2.5 дюймдік кәсіпорын мәні 6G SATA SSD (1X төзімділік) SAS 960 ГБ.
  • HX-SD38T61X-EV 3.8 ТБ 2.5 дюймдік Enterprise Value 6G SATA SSD (1X төзімділік) SAS 3.8 ТБ.
  • Дискілерді кэштеу
  • HX-NVMEXPB-I375 375 ГБ 2.5 дюймдік Intel Optane Drive, Extreme Perf & Endurance.
  • HX-NVMEHW-H1600* 1.6 ТБ 2.5 дюйм. Перф. NVMe SSD (3X төзімділік) NVMe 1.6 ТБ.
  • HX-SD400G12TX-EP 400 ГБ 2.5 дюйм. Перф. 12G SAS SSD (10X төзімділік) SAS 400 ГБ.
  • HX-SD800GBENK9** 800 ГБ 2.5 дюйм. Перф. 12G SAS SED SSD (10X төзімділік) SAS 800 ГБ.
  • HX-SD16T123X-EP 1.6 ТБ 2.5 дюймдік кәсіпорын өнімділігі 12G SAS SSD (3X төзімділік).

Жүйе/журнал дискілері

  • HX-SD240GM1X-EV 240 ГБ 2.5 дюймдік Enterprise Value 6G SATA SSD (жаңартуды қажет етеді).

Жүктеу дискілері

  • HX-M2-240 ГБ 240 ГБ SATA M.2 SSD SATA 240 ГБ.

Желіге 40G, 25G немесе 10G Ethernet порттары арқылы қосылыңыз.

FI HX-FI-6332 (40G), HX-FI-6332-16UP (40G), HX-FI-6454 (40G/100G) болуы мүмкін.

Тесттің өзі

Дискінің ішкі жүйесін тексеру үшін мен HCIBench 2.2.1 қолдандым. Бұл бірнеше виртуалды машиналардан жүктемені жасауды автоматтандыруға мүмкіндік беретін тегін қызметтік бағдарлама. Жүктеменің өзі әдеттегі fio арқылы жасалады.

Біздің кластер төрт түйіннен тұрады, репликация факторы 3, барлық дискілер Flash болып табылады.

Тестілеу үшін мен төрт деректер қоймасын және сегіз виртуалды машинаны жасадым. Жазу сынақтары үшін кэштеу дискісі толы емес деп есептеледі.

Сынақ нәтижелері келесідей:

100% оқу 100% кездейсоқ

0% Оқу 100% Кездейсоқ

Блок/кезек тереңдігі

128

256

512

1024

2048

128

256

512

1024

2048

4K

0,59 мс 213804 IOPS

0,84 мс 303540 IOPS

1,36 мс 374348 IOPS

2.47 мс 414116 IOPS

4,86 мс 420180 IOPS

2,22 мс 57408 IOPS

3,09 мс 82744 IOPS

5,02 мс 101824 IPOS

8,75 мс 116912 IOPS

17,2 мс 118592 IOPS

8K

0,67 мс 188416 IOPS

0,93 мс 273280 IOPS

1,7 мс 299932 IOPS

2,72 мс 376,484 IOPS

5,47 мс 373,176 IOPS

3,1 мс 41148 IOPS

4,7 мс 54396 IOPS

7,09 мс 72192 IOPS

12,77 мс 80132 IOPS

16K

0,77 мс 164116 IOPS

1,12 мс 228328 IOPS

1,9 мс 268140 IOPS

3,96 мс 258480 IOPS

3,8 мс 33640 IOPS

6,97 мс 36696 IOPS

11,35 мс 45060 IOPS

32K

1,07 мс 119292 IOPS

1,79 мс 142888 IOPS

3,56 мс 143760 IOPS

7,17 мс 17810 IOPS

11,96 мс 21396 IOPS

64K

1,84 мс 69440 IOPS

3,6 мс 71008 IOPS

7,26 мс 70404 IOPS

11,37 мс 11248 IOPS

Қалың шрифт мәндерді көрсетеді, одан кейін өнімділіктің жоғарылауы байқалмайды, кейде тіпті деградация көрінеді. Бұл желінің/контроллердің/дискілердің өнімділігімен шектелгенімізге байланысты.

  • Кезекті оқу 4432 МБ/с.
  • Тізбекті жазу 804 МБ/с.
  • Бір контроллер сәтсіз болса (виртуалды машинаның немесе хосттың сәтсіздігі), өнімділік екі есе төмендейді.
  • Сақтау дискісі сәтсіз болса, кему 1/3 құрайды. Дискіні қайта құру әр контроллердің ресурстарының 5% алады.

Шағын блокта біз контроллердің (виртуалды машинаның) өнімділігімен шектелеміз, оның орталық процессоры 100% жүктеледі, ал блок ұлғайған кезде біз порт өткізу қабілеттілігімен шектелеміз. AllFlash жүйесінің әлеуетін ашу үшін 10 Гбит/с жеткіліксіз. Өкінішке орай, ұсынылған демо-стендтің параметрлері 40 Гбит/с жылдамдықпен жұмыс істеуді сынауға мүмкіндік бермейді.

Тесттерден және архитектураны зерттеуден алған әсерім бойынша, деректерді барлық хосттар арасында орналастыратын алгоритмнің арқасында біз масштабталатын, болжамды өнімділікке ие боламыз, бірақ бұл оқу кезінде де шектеу болып табылады, өйткені жергілікті дискілерден көбірек сығуға болады, мұнда ол неғұрлым өнімді желіні үнемдей алады, мысалы, FI 40 Гбит/с қол жетімді.

Сондай-ақ, кэштеу және қайталау үшін бір диск шектеу болуы мүмкін; шын мәнінде, бұл сынақ алаңында біз төрт SSD дискісіне жаза аламыз. Кэштеу дискілерінің санын көбейтіп, айырмашылықты көру керемет болар еді.

Нақты қолдану

Сақтық көшірме деректер орталығын ұйымдастыру үшін сіз екі тәсілді пайдалана аласыз (сақтық көшірмені қашықтағы сайтқа орналастыруды қарастырмаймыз):

  1. Белсенді-пассивті. Барлық қолданбалар негізгі деректер орталығында орналастырылған. Репликация синхронды немесе асинхронды болады. Егер негізгі деректер орталығы сәтсіз болса, сақтық көшірмені белсендіруіміз керек. Мұны қолмен/сценарийлер/оркестрациялық қолданбалар жасауға болады. Мұнда біз репликация жиілігіне сәйкес келетін RPO аламыз, ал RTO әкімшінің реакциясы мен дағдыларына және коммутация жоспарын әзірлеу/отладтау сапасына байланысты.
  2. Белсенді-белсенді. Бұл жағдайда тек синхронды репликация болады, деректер орталықтарының болуын қатаң түрде үшінші сайтта орналасқан кворум/төреші анықтайды. RPO = 0 және RTO 0-ге жетуі мүмкін (егер қолданба рұқсат етсе) немесе виртуалдандыру кластеріндегі түйіннің ауысу уақытына тең. Виртуализация деңгейінде белсенді-белсенді сақтауды қажет ететін созылған (Metro) кластері жасалады.

Әдетте біз клиенттердің негізгі деректер орталығында классикалық сақтау жүйесі бар архитектураны енгізгенін көреміз, сондықтан біз репликация үшін басқасын жобалаймыз. Жоғарыда айтқанымдай, Cisco HyperFlex асинхронды репликацияны және кеңейтілген виртуализация кластерін құруды ұсынады. Бұл ретте бізге қымбат репликация функциялары және екі сақтау жүйесінде Белсенді-белсенді деректерге қол жеткізу мүмкіндігі бар Орташа және одан жоғары деңгейдегі арнайы сақтау жүйесі қажет емес.

1-сценарий: Бізде бастапқы және сақтық көшірме деректер орталықтары, VMware vSphere жүйесінде виртуализация платформасы бар. Барлық өнімді жүйелер негізгі деректер орталығында орналасқан және виртуалды машиналарды репликациялау гипервизор деңгейінде орындалады, бұл сақтық көшірме деректер орталығында виртуалды құрылғыларды қосулы ұстауды болдырмайды. Біз кірістірілген құралдарды пайдалана отырып, дерекқорлар мен арнайы қолданбаларды көшіреміз және виртуалды құрылғыларды қосулы ұстаймыз. Негізгі деректер орталығы сәтсіз болса, біз сақтық көшірме деректер орталығындағы жүйелерді іске қосамыз. Бізде 100-ге жуық виртуалды машиналар бар деп есептейміз. Негізгі деректер орталығы жұмыс істеп тұрған кезде, күту режиміндегі деректер орталығы сынақ орталарын және бастапқы деректер орталығы ауысқанда өшірілуі мүмкін басқа жүйелерді іске қоса алады. Екі жақты репликацияны қолдануымыз да мүмкін. Аппараттық тұрғыдан алғанда ештеңе өзгермейді.

Классикалық архитектура жағдайында біз әрбір деректер орталығына FibreChannel арқылы кіру мүмкіндігі бар гибридті сақтау жүйесін орнатамыз, деңгейлерді бөлу, қайталау және қысу (бірақ онлайн емес), әр сайт үшін 8 сервер, 2 FibreChannel қосқышы және 10G Ethernet. Классикалық архитектурада репликация мен коммутацияны басқару үшін біз VMware құралдарын (Репликация + SRM) немесе үшінші тарап құралдарын пайдалана аламыз, олар сәл арзанырақ және кейде ыңғайлырақ болады.

Суретте диаграмма көрсетілген.

Handsfree admin = гиперконвергенция?

Cisco HyperFlex пайдаланған кезде келесі архитектура алынады:

Handsfree admin = гиперконвергенция?

HyperFlex үшін мен үлкен CPU/RAM ресурстары бар серверлерді пайдаландым, себебі... Ресурстардың бір бөлігі HyperFlex контроллері VM-ге түседі; процессор мен жад тұрғысынан мен Cisco-мен бірге ойнамау және қалған VM-лер үшін ресурстарға кепілдік бермеу үшін HyperFlex конфигурациясын сәл қайта конфигурацияладым. Бірақ біз FibreChannel қосқыштарынан бас тарта аламыз және бізге әрбір сервер үшін Ethernet порттары қажет емес; жергілікті трафик FI ішінде ауыстырылады.

Нәтиже әрбір деректер орталығы үшін келесі конфигурация болды:

Серверлер

8 x 1U сервер (384 ГБ жедел жады, 2 x Intel Gold 6132, FC HBA)

8 x HX240C-M5L (512 ГБ жедел жады, 2 x Intel Gold 6150, 3,2 ГБ SSD, 10 x 6 ТБ NL-SAS)

Сақтау

FC Front-End (20TB SSD, 130TB NL-SAS) бар гибридті сақтау жүйесі

-

LAN

2 x Ethernet қосқышы 10G 12 порты

-

SAN

2 x FC қосқышы 32/16 Гб 24 порт

2 x Cisco UCS FI 6332

Лицензиялар

VMware Ent Plus

VM коммутациясының репликациясы және/немесе оркестрленуі

VMware Ent Plus

Мен Hyperflex үшін репликация бағдарламалық құралының лицензияларын бермедім, себебі бұл біз үшін қораптан тыс қолжетімді.

Классикалық архитектура үшін мен өзін жоғары сапалы және қымбат емес өндіруші ретінде танытқан сатушыны таңдадым. Екі нұсқа үшін мен белгілі бір шешімге стандартты жеңілдікті қолдандым және нәтижесінде нақты бағаларды алдым.

Cisco HyperFlex шешімі 13% арзан болып шықты.

2-сценарий: екі белсенді деректер орталығын құру. Бұл сценарийде біз VMware жүйесінде ұзартылған кластерді жобалаймыз.

Классикалық архитектура виртуализация серверлерінен, SAN (FC протоколы) және олардың арасында созылған көлемді оқи және жаза алатын екі сақтау жүйесінен тұрады. Әрбір сақтау жүйесінде біз сақтау үшін пайдалы сыйымдылықты қоямыз.

Handsfree admin = гиперконвергенция?

HyperFlex-те біз жай ғана екі сайтта бірдей түйіндер саны бар Stretch Cluster жасаймыз. Бұл жағдайда 2+2 репликация коэффициенті қолданылады.

Handsfree admin = гиперконвергенция?

Нәтиже келесі конфигурация болып табылады:

классикалық сәулет

HyperFlex

Серверлер

16 x 1U сервер (384 ГБ жедел жады, 2 x Intel Gold 6132, FC HBA, 2 x 10G NIC)

16 x HX240C-M5L (512 ГБ жедел жады, 2 x Intel Gold 6132, 1,6 ТБ NVMe, 12 x 3,8 ТБ SSD, VIC 1387)

Сақтау

2 x AllFlash сақтау жүйесі (150 ТБ SSD)

-

LAN

4 x Ethernet қосқышы 10G 24 порты

-

SAN

4 x FC қосқышы 32/16 Гб 24 порт

4 x Cisco UCS FI 6332

Лицензиялар

VMware Ent Plus

VMware Ent Plus

Барлық есептеулерде мен желілік инфрақұрылымды, деректер орталығының шығындарын және т.б. ескермедім: олар классикалық архитектура үшін де, HyperFlex шешімі үшін де бірдей болады.

Құны бойынша HyperFlex 5% қымбат болып шықты. Бұл жерде айта кететін жайт, процессор/ЖЖҚ ресурстары бойынша менде Cisco үшін қиғаш болды, өйткені конфигурацияда мен жад контроллерінің арналарын біркелкі толтырдым. Құны сәл жоғары, бірақ ауқымдылық тәртібі бойынша емес, бұл гиперконвергенция міндетті түрде «байлар үшін ойыншық» емес, бірақ деректер орталығын құрудың стандартты тәсілімен бәсекелесе алатынын анық көрсетеді. Бұл Cisco UCS серверлері және олар үшін сәйкес инфрақұрылымы бар адамдар үшін де қызықты болуы мүмкін.

Артықшылықтардың ішінде біз SAN және сақтау жүйелерін басқару шығындарының жоқтығын аламыз, онлайн қысу және қайталау, қолдау үшін бір кіру нүктесі (виртуализация, серверлер, олар да сақтау жүйелері), кеңістікті үнемдеу (бірақ барлық сценарийлерде емес), операцияны жеңілдету.

Қолдау туралы айтатын болсақ, мұнда сіз оны бір жеткізушіден аласыз - Cisco. Cisco UCS серверлерімен тәжірибем бойынша, маған ұнайды; оны HyperFlex-те ашудың қажеті жоқ, бәрі бірдей жұмыс істеді. Инженерлер дереу жауап береді және типтік мәселелерді ғана емес, сонымен қатар күрделі шеткі жағдайларды да шеше алады. Кейде мен оларға сұрақ қоямын: «Осылай бола ма, оны бұраңыз?» немесе «Мен мұнда бірдеңені конфигурацияладым және ол жұмыс істегісі келмейді. Көмектесіңдер!» - олар шыдамдылықпен сол жерден қажетті нұсқаулықты тауып, дұрыс әрекеттерді көрсетеді, олар: «Біз тек аппараттық мәселелерді шешеміз» деп жауап бермейді.

сілтемелер

Ақпарат көзі: www.habr.com

пікір қалдыру