Колу жок админ = гиперконвергенция?

Колу жок админ = гиперконвергенция?
Колу жок админ = гиперконвергенция?

Бул сервердик жабдуу тармагында кеңири таралган миф. Практикада гиперконвергиялык чечимдер (баары бир болгондо) көп нерселер үчүн керек. Тарыхый жактан алганда, биринчи архитектура Amazon жана Google тарабынан алардын кызматтары үчүн иштелип чыккан. Андан кийин ар биринин өзүнүн дисктери болгон бирдей түйүндөрдөн эсептөө чарбасын жасоо идеясы болгон. Мунун баарын кандайдыр бир система түзүүчү программалык камсыздоо (гипервизор) бириктирип, виртуалдык машиналарга бөлүнгөн. Негизги максат - бир түйүндү тейлөө үчүн минималдуу күч-аракет жана масштабдоодо минималдуу көйгөйлөр: жөн гана дагы бир миң же эки серверди сатып алып, аларды жакын жерде туташтырыңыз. Иш жүзүндө, бул обочолонгон учурлар, жана көбүнчө биз түйүндөрдүн азыраак саны жана бир аз башкача архитектура жөнүндө сөз болуп жатат.

Бирок плюс ошол эле бойдон калууда - масштабдоо жана башкаруунун укмуштуудай жеңилдиги. Жаман жагы - ар кандай тапшырмалар ресурстарды ар кандай керектейт, ал эми кээ бир жерлерде локалдык дисктер көп болот, башкаларында RAM аз болот жана башкалар, башкача айтканда, ар кандай тапшырмалар үчүн ресурстарды пайдалануу азаят.

Көрсө, сиз орнотуунун оңойлугу үчүн 10-15% көбүрөөк төлөйсүз. Бул аталыштагы мифти пайда кылган. Технологиянын кайсы жерде оптималдуу колдонулаарын биз көп убакыт издедик жана аны таптык. Чынында, Cisco өзүнүн сактоо тутумдарына ээ эмес, бирок алар толук сервер рыногун каалашкан. Жана алар Cisco Hyperflexти - түйүндөрдөгү жергиликтүү сактоо менен чечимди жасашты.

Жана бул күтүлбөгөн жерден камдык маалымат борборлору үчүн абдан жакшы чечим болуп чыкты (Cisaster Recovery). Мен сага эмне үчүн жана кантип айтып берем. Жана мен сизге кластердик тесттерди көрсөтөм.

Керек болгон жерде

Гиперконвергенция бул:

  1. Эсептөө түйүндөрүнө дисктерди өткөрүү.
  2. Сактоо подсистемасынын виртуалдаштыруу подсистемасы менен толук интеграциясы.
  3. Тармактын подсистемасы менен өткөрүп берүү/интеграциялоо.

Бул айкалыштыруу көптөгөн сактоо тутумунун функцияларын виртуалдаштыруу деңгээлинде жана бардыгын бир башкаруу терезесинен ишке ашырууга мүмкүндүк берет.

Биздин компанияда ашыкча маалымат борборлорун долбоорлоо долбоорлору чоң суроо-талапка ээ жана гиперконвергиялык чечим көбүнчө кутудан репликациялоонун бир тобуна (метрокластерге чейин) байланыштуу тандалат.

Камдык маалымат борборлоруна келсек, биз адатта шаардын башка тарабындагы же башка шаардагы алыскы объект жөнүндө айтып жатабыз. Ал негизги маалымат борборунун жарым-жартылай же толук иштебей калган учурда критикалык системаларды калыбына келтирүүгө мүмкүндүк берет. Сатуу маалыматтары ал жерде дайыма репликацияланат жана бул репликация колдонмо деңгээлинде же блоктук түзүлүш (сактоо) деңгээлинде болушу мүмкүн.

Ошондуктан, азыр мен системанын дизайны жана тесттери жөнүндө, андан кийин үнөмдөө маалыматтары менен бир нече реалдуу жашоо сценарийлери жөнүндө сүйлөшөм.

тесттер

Биздин мисал төрт серверден турат, алардын ар биринде 10 ГБ 960 SSD дисктери бар. Жазуу операцияларын кэштөө жана сервистик виртуалдык машинаны сактоо үчүн атайын диск бар. Чечимдин өзү төртүнчү версия. Биринчиси чийки (сын-пикирлер боюнча), экинчиси нымдуу, үчүнчүсү буга чейин эле туруктуу жана муну жалпы коомчулук үчүн бета тестирлөө аяктагандан кийин чыгаруу деп атоого болот. Сыноо учурунда мен эч кандай көйгөй көргөн жокмун, баары саат сыяктуу иштейт.

v4 өзгөртүүлөрБир топ мүчүлүштүктөр оңдолду.

Башында платформа VMware ESXi гипервизору менен гана иштей алган жана аз сандагы түйүндөрдү колдогон. Ошондой эле, жайылтуу процесси дайыма эле ийгиликтүү аяктаган эмес, кээ бир кадамдарды кайра баштоо керек болчу, эски версиялардан жаңыртууда көйгөйлөр бар, GUIдеги маалыматтар дайыма эле туура көрүнбөй келген (бирок мен дагы эле аткаруу графиктеринин дисплейине ыраазы эмесмин) ), кээде виртуалдаштыруу интерфейсинде көйгөйлөр пайда болгон.

Эми балалыктын бардык көйгөйлөрү чечилди, HyperFlex ESXi жана Hyper-V экөөнү тең чече алат, плюс:

  1. Чоюлган кластер түзүү.
  2. Fabric Interconnect колдонбостон кеңселер үчүн кластер түзүү, экиден төрт түйүнгө чейин (биз серверлерди гана сатып алабыз).
  3. Тышкы сактоо системалары менен иштөө мүмкүнчүлүгү.
  4. Контейнерлерди жана Кубернеттерди колдоо.
  5. Жеткиликтүү зоналарды түзүү.
  6. Эгерде орнотулган функция канааттандырарлык эмес болсо, VMware SRM менен интеграция.

Архитектура анын негизги атаандаштарынын чечимдеринен анча деле айырмаланбайт, алар велосипед жасаган эмес. Мунун баары VMware же Hyper-V виртуалдаштыруу платформасында иштейт. Аппараттык камсыздоо менчик Cisco UCS серверлеринде жайгаштырылган. Платформаны баштапкы орнотуунун салыштырмалуу татаалдыгы, көптөгөн баскычтар, калыптардын жана көз карандылыктардын тривиалдуу эмес системасы үчүн жек көргөндөр бар, бирок Зенди үйрөнүп алгандар да бар, алар идеядан шыктанып, мындан ары аны каалабай жатышат. башка серверлер менен иштөө үчүн.

Биз VMware үчүн чечимди карап чыгабыз, анткени чечим алгач ал үчүн жаратылган жана көбүрөөк функционалдуулукка ээ; Hyper-V атаандаштардан артта калуу жана рыноктун күтүүлөрүн канааттандыруу үчүн жол боюна кошулган.

Дисктерге толгон серверлердин кластери бар. Маалыматтарды сактоо үчүн дисктер бар (SSD же HDD - сиздин табитиңизге жана муктаждыктарыңызга жараша), кэштөө үчүн бир SSD диск бар. Маалыматтар сактагычына маалыматтарды жазып жатканда, маалыматтар кэш катмарында сакталат (арналган SSD диски жана VM кызматынын оперативдүү эси). Параллелдүү түрдө кластердеги түйүндөргө маалымат блогу жөнөтүлөт (түйүндөрдүн саны кластердин репликация факторуна жараша болот). Бардык түйүндөрдөн ийгиликтүү жаздыруу жөнүндө ырасталгандан кийин, жазууну ырастоо гипервизорго, андан кийин VMге жөнөтүлөт. Жазылган маалыматтар дедупликацияланат, кысылып, фондо сактоо дисктерине жазылат. Ошол эле учурда чоң блок дайыма сактоо дисктерине жана ырааттуу түрдө жазылат, бул сактоо дисктериндеги жүктү азайтат.

Депликация жана кысуу ар дайым иштетилет жана аларды өчүрүүгө болбойт. Маалыматтар түздөн-түз сактагыч дисктерден же RAM кэшинен окулат. Эгерде гибриддик конфигурация колдонулса, окуулар да SSDде кэште сакталат.

Маалыматтар виртуалдык машинанын учурдагы жайгашкан жерине байланбайт жана түйүндөр ортосунда бирдей бөлүштүрүлөт. Бул ыкма бардык дисктерди жана тармак интерфейстерин бирдей жүктөөгө мүмкүндүк берет. Айкын кемчилиги бар: биз окуунун кечигүү убактысын мүмкүн болушунча азайта албайбыз, анткени жергиликтүү маалыматтарга кепилдик жок. Бирок бул алынган пайдага салыштырмалуу кичине курмандык деп эсептейм. Мындан тышкары, тармактык кечигүү, алар иш жүзүндө жалпы натыйжага таасир этпейт, мындай баалуулуктарга жетти.

Ар бир сактоо түйүнүндө түзүлгөн атайын кызмат VM Cisco HyperFlex Data Platform контроллери диск подсистемасынын бүт иштөө логикасына жооп берет. Биздин кызматтын VM конфигурациясында сегиз vCPU жана 72 ГБ оперативдик эс бөлүнгөн, бул анчалык деле аз эмес. Эске сала кетейин, хосттун өзүндө 28 физикалык өзөк жана 512 ГБ оперативдик эс бар.

Кызмат VM физикалык дисктерге SAS контроллерин VMге жөнөтүү аркылуу түз кире алат. Гипервизор менен байланыш IOVisor атайын модулу аркылуу ишке ашат, ал киргизүү/чыгаруу операцияларын токтотот жана гипервизордун API'сине буйруктарды жөнөтүүгө мүмкүндүк берүүчү агентти колдонуу менен ишке ашат. Агент HyperFlex снапшоттору жана клондору менен иштөө үчүн жооптуу.

Диск ресурстары гипервизорго NFS же SMB үлүштөрү катары орнотулган (гипервизордун түрүнө жараша, кайсынысы кайда экенин билиңиз). Ал эми капоттун астында бул чоңдордун толук кандуу сактоо тутумдарынын өзгөчөлүктөрүн кошууга мүмкүндүк берген бөлүштүрүлгөн файл тутуму: ичке көлөмдү бөлүштүрүү, кысуу жана дедупликациялоо, Redirect-on-Write технологиясын колдонуу менен тартылган сүрөттөр, синхрондуу/асинхрондук репликация.

Кызмат VM HyperFlex подсистемасынын WEB башкаруу интерфейсине кирүүнү камсыз кылат. vCenter менен интеграция бар жана андан күнүмдүк иштердин көбүн аткарууга болот, бирок, мисалы, маалымат дүкөндөрү, эгер сиз буга чейин эле тез HTML5 интерфейсине өткөн болсоңуз же толук кандуу Flash кардарын колдонсоңуз, өзүнчө веб-камерадан кесип алуу ыңгайлуураак. толук интеграция менен. Кызматтын веб-камерасында сиз системанын иштешин жана деталдуу абалын көрө аласыз.

Колу жок админ = гиперконвергенция?

Кластерде түйүндөрдүн дагы бир түрү бар - эсептөө түйүндөрү. Булар орнотулган дисктери жок стойка же лейд серверлери болушу мүмкүн. Бул серверлер маалыматтары дисктери бар серверлерде сакталган VMлерди иштете алат. Берилиштерге жетүү көз карашынан алганда, түйүндөрдүн түрлөрүнүн ортосунда эч кандай айырма жок, анткени архитектура маалыматтардын физикалык жайгашкан жеринен абстракциялоону камтыйт. Эсептөө түйүндөрүнүн сактоо түйүндөрүнө максималдуу катышы 2:1.

Эсептөө түйүндөрүн колдонуу кластердик ресурстарды масштабдоодо ийкемдүүлүктү жогорулатат: эгерде бизге CPU/RAM керек болсо, дисктери менен кошумча түйүндөрдү сатып алуунун кереги жок. Мындан тышкары, биз бычак капас кошуп, серверлерди стойкага жайгаштырууну үнөмдөй алабыз.

Натыйжада, бизде төмөнкү өзгөчөлүктөргө ээ болгон гиперконвергделген платформа бар:

  • Кластерде 64 түйүнгө чейин (32 сактоо түйүнүнө чейин).
  • Кластердеги түйүндөрдүн минималдуу саны үч (Edge кластери үчүн эки).
  • Маалыматтын ашыкча механизми: репликация фактору 2 жана 3 менен чагылдыруу.
  • Метро кластери.
  • Башка HyperFlex кластерине асинхрондук VM репликациясы.
  • VMлерди алыскы маалымат борборуна которууну уюштуруу.
  • Redirect-on-Write технологиясын колдонуу менен жергиликтүү көз ирмемдик сүрөттөр.
  • 1 репликация факторунда жана дедупликациясыз колдонууга жарамдуу мейкиндиктин 3 ПБ чейин. Биз 2-репликация факторун эске албайбыз, анткени бул олуттуу сатуунун варианты эмес.

Дагы бир чоң плюс башкаруунун жана жайылтуунун жөнөкөйлүгү. UCS серверлерин орнотуудагы бардык татаалдыктар Cisco инженерлери тарабынан даярдалган адистештирилген VM тарабынан чечилет.

Сыноо стендинин конфигурациясы:

  • 2 x Cisco UCS Fabric Interconnect 6248UP башкаруу кластери жана тармак компоненттери катары (Ethernet 48G/FC 10G режиминде иштеген 16 порт).
  • Төрт Cisco UCS HXAF240 M4 серверлери.

Сервер мүнөздөмөлөрү:

CPU

2 x Intel® Xeon® E5-2690 v4

RAM

16 x 32 ГБ DDR4-2400-MHz RDIMM/PC4-19200/кош ранг/x4/1.2v

тармак

UCSC-MLOM-CSC-02 (VIC 1227). 2 10G Ethernet порттору

Сактагыч HBA

Cisco 12G модулдук SAS контроллер аркылуу өтөт

Сактоочу дисктер

1 x SSD Intel S3520 120 ГБ, 1 x SSD Samsung MZ-IES800D, 10 x SSD Samsung PM863a 960 ГБ

Көбүрөөк конфигурация параметрлериТандалган жабдыктардан тышкары, учурда төмөнкү параметрлер бар:

  • HXAF240c M5.
  • Intel Silver 4110дон Intel Platinum I8260Yге чейинки бир же эки CPU. Экинчи муун жеткиликтүү.
  • 24 эс тутум слоту, 16 ГБ RDIMM 2600дөн 128 ГБ LRDIMM 2933 чейин тилкелер.
  • 6дан 23кө чейин маалымат дисктери, бир кэш диски, бир системалык диск жана бир жүктөө диски.

Capacity Drives

  • HX-SD960G61X-EV 960GB 2.5 дюйм Enterprise Value 6G SATA SSD (1X чыдамкайлык) SAS 960 ГБ.
  • HX-SD38T61X-EV 3.8TB 2.5 дюйм Enterprise Value 6G SATA SSD (1X чыдамкайлык) SAS 3.8 ТБ.
  • Драйвтарды кэштөө
  • HX-NVMEXPB-I375 375 ГБ 2.5 дюймдук Intel Optane Drive, Extreme Perf & Endurance.
  • HX-NVMEHW-H1600* 1.6TB 2.5 дюйм Ent. Perf. NVMe SSD (3X чыдамкайлык) NVMe 1.6 ТБ.
  • HX-SD400G12TX-EP 400GB 2.5 дюймдук Ent. Perf. 12G SAS SSD (10X чыдамкайлык) SAS 400 ГБ.
  • HX-SD800GBENK9** 800GB 2.5 дюймдук Ent. Perf. 12G SAS SED SSD (10X чыдамкайлык) SAS 800 ГБ.
  • HX-SD16T123X-EP 1.6TB 2.5 дюймдук Enterprise аткаруу 12G SAS SSD (3X чыдамкайлык).

Система/журнал дисктери

  • HX-SD240GM1X-EV 240 ГБ 2.5 дюйм Enterprise Value 6G SATA SSD (Жаңыртууну талап кылат).

Жүктөө дисктери

  • HX-M2-240GB 240GB SATA M.2 SSD SATA 240 ГБ.

Тармакка 40G, 25G же 10G Ethernet порттору аркылуу туташыңыз.

FI HX-FI-6332 (40G), HX-FI-6332-16UP (40G), HX-FI-6454 (40G/100G) болушу мүмкүн.

Сынактын өзү

Дисктин подсистемасын сыноо үчүн мен HCIBench 2.2.1 колдондум. Бул бир нече виртуалдык машиналардан жүктү түзүүнү автоматташтырууга мүмкүндүк берген акысыз утилита. Жүктүн өзү кадимки fio тарабынан түзүлөт.

Биздин кластер төрт түйүндөн турат, репликация фактору 3, бардык дисктер Flash болуп саналат.

Сыноо үчүн мен төрт маалымат дүкөнүн жана сегиз виртуалдык машинаны түздүм. Жазуу тесттери үчүн кэш диски толук эмес деп болжолдонот.

Сынактын натыйжалары төмөнкүдөй:

100% окуу 100% туш келди

0% окуу 100% кокустук

Блок/кезектин тереңдиги

128

256

512

1024

2048

128

256

512

1024

2048

4K

0,59 мс 213804 IOPS

0,84 мс 303540 IOPS

1,36ms 374348 IOPS

2.47 мс 414116 IOPS

4,86ms 420180 IOPS

2,22 мс 57408 IOPS

3,09 мс 82744 IOPS

5,02 мс 101824 IPOS

8,75 мс 116912 IOPS

17,2 мс 118592 IOPS

8K

0,67 мс 188416 IOPS

0,93 мс 273280 IOPS

1,7 мс 299932 IOPS

2,72 мс 376,484 IOPS

5,47 мс 373,176 IOPS

3,1 мс 41148 IOPS

4,7 мс 54396 IOPS

7,09 мс 72192 IOPS

12,77 мс 80132 IOPS

16K

0,77 мс 164116 IOPS

1,12 мс 228328 IOPS

1,9 мс 268140 IOPS

3,96 мс 258480 IOPS

3,8 мс 33640 IOPS

6,97 мс 36696 IOPS

11,35 мс 45060 IOPS

32K

1,07 мс 119292 IOPS

1,79 мс 142888 IOPS

3,56 мс 143760 IOPS

7,17 мс 17810 IOPS

11,96 мс 21396 IOPS

64K

1,84 мс 69440 IOPS

3,6 мс 71008 IOPS

7,26 мс 70404 IOPS

11,37 мс 11248 IOPS

Калың маанилерди көрсөтөт, андан кийин өндүрүмдүүлүктүн жогорулашы жок, кээде атүгүл деградация байкалат. Бул тармактын/контролёрлордун/дисктердин иштеши менен чектелгенибизге байланыштуу.

  • Ырааттуу окуу 4432 МБ/сек.
  • Ырааттуу жазуу 804 МБ/сек.
  • Эгерде бир контроллер иштебей калса (виртуалдык машинанын же хосттун иштен чыгышы), өндүрүмдүүлүк эки эсе төмөндөйт.
  • Эгерде сактоо диски иштебей калса, анда 1/3 кыскартуу. Дискти калыбына келтирүү ар бир контроллердин ресурстарынын 5% алат.

Кичинекей блокто биз контроллердин (виртуалдык машинанын) иштеши менен чектелебиз, анын CPU 100% жүктөлөт, ал эми блок көбөйгөндө порттун өткөрүү жөндөмдүүлүгү менен чектелебиз. AllFlash системасынын потенциалын ачуу үчүн 10 Гбит/сек жетишсиз. Тилекке каршы, берилген демо-стенддин параметрлери 40 Гбит/сек ылдамдыкта иштөөнү текшерүүгө мүмкүндүк бербейт.

Сыноолордон жана архитектураны изилдөөдөн алган таасирим боюнча, маалыматтарды бардык хосттордун ортосунда жайгаштырган алгоритмдин аркасында биз масштабдуу, болжолдуу көрсөткүчтөргө ээ болобуз, бирок бул окууда да чектөө, анткени локалдык дисктерден көбүрөөк сыгып алууга болот, бул жерде ал жемиштүү тармакты сактап калышы мүмкүн, мисалы, FI 40 Гбит/с жеткиликтүү.

Ошондой эле, кэштөө жана дедупликациялоо үчүн бир диск чектөө болушу мүмкүн; чындыгында, бул тестирлөөдө биз төрт SSD дискине жаза алабыз. Кэштөөчү дисктердин санын көбөйтүп, айырмачылыкты көрө алсаңыз жакшы болмок.

Чыныгы колдонуу

Камдык маалымат борборун уюштуруу үчүн, сиз эки ыкманы колдонсоңуз болот (алыскы сайтка камдык көчүрмөнү жайгаштырууну ойлобойбуз):

  1. Активдүү пассивдүү. Бардык тиркемелер негизги маалымат борборунда жайгаштырылат. Репликация синхрондуу же асинхрондуу. Негизги маалымат борбору иштебей калса, камдык көчүрмөнү иштетишибиз керек. Бул кол менен жасалышы мүмкүн/скрипттер/оркестрация колдонмолору. Бул жерде биз репликация жыштыгына шайкеш келген RPO алабыз, ал эми RTO администратордун реакциясына жана көндүмдөрүнө жана коммутация планын иштеп чыгуу/дебгациялоо сапатына көз каранды.
  2. Active-Active. Бул учурда, синхрондуу репликация гана болот, маалымат борборлорунун болушу үчүнчү сайтта так жайгашкан кворум/арбитр тарабынан аныкталат. RPO = 0, ал эми RTO 0гө жетиши мүмкүн (эгер колдонмо уруксат берсе) же виртуалдаштыруу кластериндеги түйүндүн иштебей калуу убактысына барабар. Виртуалдаштыруу деңгээлинде, Active-Active сактагычты талап кылган сунулган (Метро) кластер түзүлөт.

Адатта, биз кардарлар негизги маалымат борборунда классикалык сактоо тутуму менен архитектураны ишке ашырышканын көрөбүз, ошондуктан биз репликациялоо үчүн башкасын иштеп чыгабыз. Мен белгилегендей, Cisco HyperFlex асинхрондук репликацияны жана узартылган виртуалдаштыруу кластерин түзүүнү сунуштайт. Ошол эле учурда бизге кымбат репликациялоо функциялары жана эки сактоо тутумунда Active-Active маалыматтарга жетүү мүмкүнчүлүгү бар Midrange жана андан жогорку деңгээлдеги атайын сактоо тутумунун кереги жок.

1-сценарий: Бизде баштапкы жана резервдик маалымат борборлору, VMware vSphereде виртуалдаштыруу платформасы бар. Бардык өндүрүмдүү системалар негизги маалымат борборунда жайгашкан жана виртуалдык машиналарды репликациялоо гипервизордун деңгээлинде аткарылат, бул резервдик маалымат борборунда VMлерди күйгүзүп калуудан сактайт. Биз орнотулган куралдарды колдонуу менен маалымат базаларын жана атайын тиркемелерди кайталайбыз жана VMлерди күйгүзүп турабыз. Негизги маалымат борбору иштебей калса, биз резервдик маалымат борборунда системаларды ишке киргизебиз. Бизде 100гө жакын виртуалдык машина бар деп ишенебиз. Негизги маалымат борбору иштеп турганда, күтүү режиминдеги маалымат борбору тестирлөө чөйрөлөрүн жана башка системаларды иштете алат, эгерде негизги маалымат борбору которулса, өчүрүлөт. Ошондой эле биз эки тараптуу репликацияны колдонушубуз мүмкүн. Аппараттык жактан эч нерсе өзгөрбөйт.

Классикалык архитектурада биз ар бир маалымат борборуна FibreChannel аркылуу кирүү мүмкүнчүлүгү бар гибриддик сактоо тутумун орнотобуз, деңгээлди бөлүштүрүү, дедупликациялоо жана кысуу (бирок онлайн эмес), ар бир сайт үчүн 8 сервер, 2 FibreChannel өчүргүчтөрү жана 10G Ethernet. Классикалык архитектурада репликациялоо жана которууну башкаруу үчүн биз VMware куралдарын (Репликация + SRM) же үчүнчү тараптын куралдарын колдоно алабыз, алар бир аз арзаныраак, кээде ыңгайлуураак болот.

Сүрөт диаграмманы көрсөтөт.

Колу жок админ = гиперконвергенция?

Cisco HyperFlexти колдонууда төмөнкү архитектура алынат:

Колу жок админ = гиперконвергенция?

HyperFlex үчүн мен чоң CPU/RAM ресурстары бар серверлерди колдондум, анткени... Ресурстардын бир бөлүгү HyperFlex контроллерине VM кетет; CPU жана эс тутум жагынан мен Cisco менен бирге ойнобош үчүн жана калган VMлер үчүн ресурстарга кепилдик бербөө үчүн HyperFlex конфигурациясын бир аз кайра конфигурацияладым. Бирок биз FibreChannel которгучтарынан баш тарта алабыз жана ар бир сервер үчүн Ethernet портторуна муктаж болбойбуз; жергиликтүү трафик FI ичинде которулат.

Натыйжада ар бир маалымат борбору үчүн төмөнкү конфигурация болду:

Серверлер

8 x 1U Server (384 ГБ оперативдик эс, 2 x Intel Gold 6132, FC HBA)

8 x HX240C-M5L (512 ГБ оперативдик эс, 2 x Intel Gold 6150, 3,2 ГБ SSD, 10 x 6 ТБ NL-SAS)

Сактагыч

FC Front-End менен гибриддик сактоо тутуму (20TB SSD, 130 TB NL-SAS)

-

LAN

2 x Ethernet алмаштыргыч 10G 12 порт

-

САН

2 x FC алмаштыргыч 32/16Gb 24 порт

2 x Cisco UCS FI 6332

уруксат

VMware Ent Plus

VM которууну репликациялоо жана/же оркестрлөө

VMware Ent Plus

Мен Hyperflex үчүн репликациялоочу программалык камсыздоо лицензиясын берген жокмун, анткени бул биз үчүн кутудан тышкары.

Классикалык архитектура үчүн мен өзүн сапаттуу жана арзан өндүрүүчү катары көрсөткөн сатуучуну тандадым. Эки вариантта тең мен белгилүү бир чечимге стандарттык арзандатууну колдондум, натыйжада мен реалдуу бааларды алдым.

Cisco HyperFlex чечими 13% арзан болуп чыкты.

2-сценарий: эки активдүү маалымат борборлорун түзүү. Бул сценарийде биз VMwareде чоюлган кластерди иштеп жатабыз.

Классикалык архитектура виртуалдаштыруу серверлеринен, SAN (FC протоколу) жана алардын ортосунда созулган көлөмгө чейин окуп жана жаза ала турган эки сактоо тутумунан турат. Ар бир сактоо тутумунда биз сактоо үчүн пайдалуу кубаттуулукту койдук.

Колу жок админ = гиперконвергенция?

HyperFlexте биз жөн гана эки сайтта бирдей сандагы түйүндөр менен Stretch Cluster түзөбүз. Бул учурда 2+2 репликация коэффициенти колдонулат.

Колу жок админ = гиперконвергенция?

Натыйжада төмөнкү конфигурация болуп саналат:

классикалык архитектура

HyperFlex

Серверлер

16 x 1U Server (384 ГБ оперативдик эс, 2 x Intel Gold 6132, FC HBA, 2 x 10G NIC)

16 x HX240C-M5L (512 ГБ оперативдик эс, 2 x Intel Gold 6132, 1,6 ТБ NVMe, 12 x 3,8 ТБ SSD, VIC 1387)

Сактагыч

2 x AllFlash сактоо тутумдары (150 ТБ SSD)

-

LAN

4 x Ethernet алмаштыргыч 10G 24 порт

-

САН

4 x FC алмаштыргыч 32/16Gb 24 порт

4 x Cisco UCS FI 6332

уруксат

VMware Ent Plus

VMware Ent Plus

Бардык эсептөөлөрдө мен тармактык инфраструктураны, маалымат борборунун чыгымдарын ж.б. эске алган жокмун: алар классикалык архитектура жана HyperFlex чечими үчүн бирдей болот.

Наркы жагынан HyperFlex 5% кымбат болуп чыкты. Бул жерде белгилей кетүүчү нерсе, CPU/RAM ресурстары боюнча менде Cisco үчүн кыйшаюучулук бар болчу, анткени конфигурацияда эстутум контроллерунун каналдарын бирдей толтурдум. Наркы бир аз жогору, бирок чоңдук тартиби боюнча эмес, бул гиперконвергенция сөзсүз түрдө "байлар үчүн оюнчук" эмес экенин, бирок маалымат борборун курууга стандарттуу мамиле менен атаандаша аларын ачык көрсөтүп турат. Бул Cisco UCS серверлери жана алар үчүн тиешелүү инфраструктурасы барлар үчүн да кызыктуу болушу мүмкүн.

Артыкчылыктардын арасында биз SAN жана сактоо тутумдарын башкаруу үчүн чыгымдардын жоктугун, онлайн кысуу жана дедупликацияны, колдоо үчүн бирдиктүү кирүү пунктун (виртуалдаштыруу, серверлер, алар да сактоо тутумдары), мейкиндикти үнөмдөөнү (бирок бардык сценарийлерде эмес), операцияны жөнөкөйлөтүү.

Колдоо үчүн, бул жерде сиз аны бир сатуучудан аласыз - Cisco. Cisco UCS серверлери менен болгон тажрыйбама караганда, мага жагат; аны HyperFlexте ачуунун кереги жок болчу, баары бирдей иштеди. Инженерлер дароо жооп беришет жана типтүү көйгөйлөрдү гана эмес, ошондой эле татаал кырдуу учурларды да чече алышат. Кээде аларга кайрылам: «Ушундай кылса болобу, бурасыңбы?» же "Мен бул жерде бир нерсени конфигурацияладым жана ал иштегиси келбейт. Жардам!" - алар чыдамдуулук менен ошол жерден керектүү жол көрсөткүчтү таап, туура иш-аракеттерди көрсөтөт, алар: "Биз аппараттык көйгөйлөрдү гана чечебиз" деп жооп беришпейт.

шилтемелер

Source: www.habr.com

Комментарий кошуу