Msimamizi asiyetumia mikono = hyperconvergence?

Msimamizi asiyetumia mikono = hyperconvergence?
Msimamizi asiyetumia mikono = hyperconvergence?

Hii ni hadithi ambayo ni ya kawaida katika uwanja wa vifaa vya seva. Kwa mazoezi, suluhisho za hyperconverged (wakati kila kitu kiko moja) zinahitajika kwa vitu vingi. Kwa kihistoria, usanifu wa kwanza ulitengenezwa na Amazon na Google kwa huduma zao. Kisha wazo lilikuwa kufanya shamba la kompyuta kutoka kwa nodes zinazofanana, ambayo kila mmoja alikuwa na disks zake. Yote hii iliunganishwa na programu fulani ya kutengeneza mfumo (hypervisor) na iligawanywa katika mashine za kawaida. Lengo kuu ni kiwango cha chini cha juhudi za kutumikia nodi moja na kiwango cha chini cha shida wakati wa kuongeza: nunua tu seva elfu moja au mbili za seva sawa na uziunganishe karibu. Kwa mazoezi, hizi ni kesi za pekee, na mara nyingi zaidi tunazungumza juu ya idadi ndogo ya nodi na usanifu tofauti kidogo.

Lakini plus inabakia sawa - urahisi wa ajabu wa kuongeza na usimamizi. Kikwazo ni kwamba kazi tofauti hutumia rasilimali tofauti, na katika maeneo mengine kutakuwa na disks nyingi za ndani, kwa wengine kutakuwa na RAM kidogo, na kadhalika, yaani, kwa aina tofauti za kazi, matumizi ya rasilimali yatapungua.

Inabadilika kuwa unalipa 10-15% zaidi kwa urahisi wa usanidi. Hili ndilo lililoibua uzushi katika kichwa. Tulitumia muda mrefu kutafuta mahali ambapo teknolojia ingetumika vyema, na tukaipata. Ukweli ni kwamba Cisco haikuwa na mifumo yake ya uhifadhi, lakini walitaka soko kamili la seva. Na walifanya Cisco Hyperflex - suluhisho na hifadhi ya ndani kwenye nodes.

Na hii ghafla ikawa suluhisho nzuri sana kwa vituo vya data vya chelezo (Urejeshaji wa Maafa). Nitakuambia kwa nini na jinsi gani sasa. Nami nitakuonyesha majaribio ya nguzo.

Ambapo inahitajika

Hyperconvergence ni:

  1. Kuhamisha diski kwa nodi za kukokotoa.
  2. Ujumuishaji kamili wa mfumo mdogo wa uhifadhi na mfumo mdogo wa uboreshaji.
  3. Uhamisho/muunganisho na mfumo mdogo wa mtandao.

Mchanganyiko huu unakuwezesha kutekeleza vipengele vingi vya mfumo wa hifadhi katika kiwango cha virtualization na wote kutoka kwa dirisha moja la udhibiti.

Katika kampuni yetu, miradi ya kubuni vituo vya data isiyohitajika inahitajika sana, na suluhisho la mchanganyiko wa hali ya juu mara nyingi huchaguliwa kwa sababu ya rundo la chaguzi za urudufishaji (hadi kikundi kikuu) nje ya boksi.

Kwa upande wa vituo vya data vya chelezo, kwa kawaida tunazungumza kuhusu kituo cha mbali kwenye tovuti iliyo upande wa pili wa jiji au katika jiji lingine kabisa. Inakuwezesha kurejesha mifumo muhimu katika tukio la kushindwa kwa sehemu au kamili ya kituo kikuu cha data. Data ya mauzo inarudiwa mara kwa mara huko, na urudiaji huu unaweza kuwa katika kiwango cha programu au kwenye kiwango cha kifaa cha kuzuia (hifadhi).

Kwa hivyo, sasa nitazungumza juu ya muundo na vipimo vya mfumo, na kisha juu ya matukio kadhaa ya maisha halisi na data ya akiba.

Majaribio

Mfano wetu una seva nne, ambayo kila moja ina anatoa 10 za SSD za 960 GB. Kuna diski iliyojitolea kwa shughuli za uandishi wa caching na kuhifadhi mashine ya huduma ya kawaida. Suluhisho lenyewe ni toleo la nne. Ya kwanza ni chafu kabisa (kwa kuzingatia hakiki), ya pili ni unyevu, ya tatu tayari ni thabiti, na hii inaweza kuitwa kutolewa baada ya kumalizika kwa majaribio ya beta kwa umma kwa ujumla. Wakati wa majaribio sikuona shida yoyote, kila kitu hufanya kazi kama saa.

Mabadiliko katika v4Kundi la mende limewekwa.

Hapo awali, jukwaa lingeweza kufanya kazi tu na hypervisor ya VMware ESXi na kuunga mkono idadi ndogo ya nodi. Pia, mchakato wa kupeleka haukuisha kwa mafanikio kila wakati, hatua zingine zililazimika kuanzishwa tena, kulikuwa na shida na kusasisha kutoka kwa matoleo ya zamani, data kwenye GUI haikuonyeshwa kila wakati kwa usahihi (ingawa bado sijafurahishwa na onyesho la grafu za utendaji. ), wakati mwingine shida ziliibuka kwenye kiolesura na virtualization .

Sasa shida zote za utoto zimerekebishwa, HyperFlex inaweza kushughulikia ESXi na Hyper-V, pamoja na inawezekana:

  1. Kuunda nguzo iliyonyooshwa.
  2. Kuunda nguzo kwa ofisi bila kutumia Fabric Interconnect, kutoka nodi mbili hadi nne (tunununua seva pekee).
  3. Uwezo wa kufanya kazi na mifumo ya hifadhi ya nje.
  4. Msaada kwa vyombo na Kubernetes.
  5. Uundaji wa maeneo ya upatikanaji.
  6. Kuunganishwa na VMware SRM ikiwa utendakazi uliojengewa ndani hauridhishi.

Usanifu sio tofauti sana na suluhisho za washindani wake wakuu; hawakuunda baiskeli. Yote inaendeshwa kwenye jukwaa la uboreshaji la VMware au Hyper-V. Maunzi yanapangishwa kwenye seva za Cisco UCS za wamiliki. Kuna wale wanaochukia jukwaa kwa utata wa jamaa wa usanidi wa awali, vifungo vingi, mfumo usio na maana wa templates na utegemezi, lakini pia kuna wale ambao wamejifunza Zen, wamehamasishwa na wazo hilo na hawataki tena. kufanya kazi na seva zingine.

Tutazingatia suluhisho la VMware, kwa kuwa suluhisho liliundwa kwa ajili yake na lina utendaji zaidi; Hyper-V iliongezwa njiani ili kuendelea na washindani na kukidhi matarajio ya soko.

Kuna kundi la seva zilizojaa diski. Kuna diski za kuhifadhi data (SSD au HDD - kulingana na ladha yako na mahitaji), kuna diski moja ya SSD kwa caching. Wakati wa kuandika data kwenye hifadhidata, data huhifadhiwa kwenye safu ya caching (disk ya SSD iliyojitolea na RAM ya huduma ya VM). Sambamba, kizuizi cha data kinatumwa kwa nodi kwenye nguzo (idadi ya nodi inategemea sababu ya replication ya nguzo). Baada ya uthibitisho kutoka kwa nodes zote kuhusu kurekodi kwa mafanikio, uthibitisho wa kurekodi hutumwa kwa hypervisor na kisha kwa VM. Data iliyorekodiwa imetolewa, imebanwa na kuandikwa kwa diski za kuhifadhi nyuma. Wakati huo huo, block kubwa daima imeandikwa kwenye disks za kuhifadhi na sequentially, ambayo inapunguza mzigo kwenye disks za kuhifadhi.

Kupunguza na kubana huwashwa kila wakati na hakuwezi kulemazwa. Data inasomwa moja kwa moja kutoka kwa diski za kuhifadhi au kutoka kwa kache ya RAM. Ikiwa usanidi wa mseto unatumiwa, usomaji pia huhifadhiwa kwenye SSD.

Data haijaunganishwa na eneo la sasa la mashine ya kawaida na inasambazwa sawasawa kati ya nodi. Njia hii hukuruhusu kupakia diski zote na miingiliano ya mtandao kwa usawa. Kuna hasara dhahiri: hatuwezi kupunguza muda wa kusubiri kusoma iwezekanavyo, kwa kuwa hakuna hakikisho la upatikanaji wa data ndani ya nchi. Lakini ninaamini kuwa hii ni dhabihu ndogo ikilinganishwa na faida zilizopokelewa. Kwa kuongezea, ucheleweshaji wa mtandao umefikia maadili ambayo kwa kweli hayaathiri matokeo ya jumla.

Huduma maalum ya VM Cisco HyperFlex Data Platform mtawala, ambayo imeundwa kwenye kila node ya hifadhi, inawajibika kwa mantiki nzima ya uendeshaji wa mfumo mdogo wa disk. Katika usanidi wetu wa VM ya huduma, vCPU nane na 72 GB ya RAM zilitengwa, ambayo sio kidogo sana. Napenda kukukumbusha kwamba mwenyeji yenyewe ana cores 28 za kimwili na 512 GB ya RAM.

Huduma ya VM inaweza kufikia diski za kimwili moja kwa moja kwa kusambaza kidhibiti cha SAS kwa VM. Mawasiliano na hypervisor hutokea kwa njia ya moduli maalum ya IOVisor, ambayo inakataza shughuli za I / O, na kutumia wakala ambayo inakuwezesha kutuma amri kwa API ya hypervisor. Wakala anajibika kwa kufanya kazi na snapshots na clones za HyperFlex.

Rasilimali za diski zimewekwa kwenye hypervisor kama hisa za NFS au SMB (kulingana na aina ya hypervisor, nadhani ni wapi). Na chini ya kofia, hii ni mfumo wa faili uliosambazwa unaokuwezesha kuongeza vipengele vya mifumo ya uhifadhi kamili ya watu wazima: ugawaji wa kiasi nyembamba, ukandamizaji na upunguzaji, snapshots kwa kutumia teknolojia ya Redirect-on-Write, replication synchronous/asynchronous.

Huduma ya VM hutoa ufikiaji wa kiolesura cha usimamizi wa WEB cha mfumo mdogo wa HyperFlex. Kuna ujumuishaji na vCenter, na kazi nyingi za kila siku zinaweza kufanywa kutoka kwayo, lakini hifadhidata, kwa mfano, ni rahisi zaidi kukata kutoka kwa kamera ya wavuti tofauti ikiwa tayari umebadilisha kiolesura cha haraka cha HTML5, au unatumia mteja kamili wa Flash. na ushirikiano kamili. Katika kamera ya wavuti ya huduma unaweza kuona utendaji na hali ya kina ya mfumo.

Msimamizi asiyetumia mikono = hyperconvergence?

Kuna aina nyingine ya nodi kwenye nguzo - nodi za kompyuta. Hizi zinaweza kuwa seva za rack au blade bila diski zilizojengwa. Seva hizi zinaweza kuendesha VM ambazo data yake imehifadhiwa kwenye seva zilizo na diski. Kutoka kwa mtazamo wa upatikanaji wa data, hakuna tofauti kati ya aina za nodes, kwa sababu usanifu unahusisha uondoaji kutoka kwa eneo la kimwili la data. Uwiano wa juu wa nodi za kompyuta kwa nodi za kuhifadhi ni 2: 1.

Kutumia nodi za kukokotoa huongeza unyumbulifu wakati wa kuongeza rasilimali za nguzo: si lazima tununue nodi za ziada zilizo na diski ikiwa tu tunahitaji CPU/RAM. Kwa kuongeza, tunaweza kuongeza ngome ya blade na kuokoa kwenye uwekaji wa rack wa seva.

Kama matokeo, tuna jukwaa la hyperconverged na sifa zifuatazo:

  • Hadi nodi 64 kwenye nguzo (hadi nodi 32 za uhifadhi).
  • Idadi ya chini ya nodi kwenye nguzo ni tatu (mbili kwa nguzo ya Edge).
  • Utaratibu wa upunguzaji wa data: kuakisi kwa sababu ya kurudia 2 na 3.
  • Kundi la Metro.
  • Replication ya VM ya Asynchronous kwa nguzo nyingine ya HyperFlex.
  • Upangaji wa kubadilisha VM hadi kituo cha data cha mbali.
  • Vijipicha vya asili kwa kutumia teknolojia ya Kuelekeza Upya kwenye Kuandika.
  • Hadi PB 1 ya nafasi inayoweza kutumika katika kipengele cha 3 cha replication na bila kupunguzwa. Hatuzingatii kipengele cha 2 cha kurudia, kwa sababu hii sio chaguo la mauzo makubwa.

Faida nyingine kubwa ni urahisi wa usimamizi na kupeleka. Matatizo yote ya kusanidi seva za UCS hutunzwa na VM maalum iliyoandaliwa na wahandisi wa Cisco.

Mpangilio wa benchi la majaribio:

  • 2 x Cisco UCS Fabric Interconnect 6248UP kama nguzo ya usimamizi na vipengee vya mtandao (bandari 48 zinazofanya kazi katika modi ya Ethernet 10G/FC 16G).
  • Seva nne za Cisco UCS HXAF240 M4.

Tabia za seva:

CPU

2 x Intel® Xeon® E5-2690 v4

RAM

16 x 32GB DDR4-2400-MHz RDIMM/PC4-19200/nafasi mbili/x4/1.2v

Mtandao

UCSC-MLOM-CSC-02 (VIC 1227). 2 10G bandari za Ethaneti

Hifadhi ya HBA

Cisco 12G Modular SAS Pass kupitia Kidhibiti

Diski za Uhifadhi

1 x SSD Intel S3520 GB 120, 1 x SSD Samsung MZ-IES800D, 10 x SSD Samsung PM863a 960 GB

Chaguzi zaidi za usanidiMbali na vifaa vilivyochaguliwa, chaguzi zifuatazo zinapatikana kwa sasa:

  • HXAF240c M5.
  • CPU moja au mbili kuanzia Intel Silver 4110 hadi Intel Platinum I8260Y. Kizazi cha pili kinapatikana.
  • Nafasi 24 za kumbukumbu, vipande kutoka 16 GB RDIMM 2600 hadi 128 GB LRDIMM 2933.
  • Kutoka kwa diski 6 hadi 23 za data, diski moja ya caching, disk moja ya mfumo na disk moja ya boot.

Viendeshi vya Uwezo

  • HX-SD960G61X-EV 960GB 2.5 Inch Enterprise Thamani 6G SATA SSD (1X endurance) SAS 960 GB.
  • HX-SD38T61X-EV 3.8TB Thamani ya Biashara ya inchi 2.5 6G SATA SSD (uvumilivu 1X) SAS 3.8 TB.
  • Hifadhi za Akiba
  • HX-NVMEXPB-I375 375GB Intel Optane Drive ya inchi 2.5, Extreme Perf & Endurance.
  • HX-NVMEHW-H1600* 1.6TB Inchi 2.5. Perf. NVMe SSD (uvumilivu wa 3X) NVMe 1.6 TB.
  • HX-SD400G12TX-EP 400GB Inchi 2.5. Perf. 12G SAS SSD (uvumilivu 10X) SAS GB 400.
  • HX-SD800GBENK9** 800GB Inchi 2.5. Perf. 12G SAS SED SSD (uvumilivu 10X) SAS GB 800.
  • HX-SD16T123X-EP 1.6TB Utendaji wa Biashara wa inchi 2.5 12G SAS SSD (uvumilivu wa 3X).

Hifadhi za Mfumo/Kumbukumbu

  • HX-SD240GM1X-EV 240GB Thamani ya Biashara ya inchi 2.5 6G SATA SSD (Inahitaji uboreshaji).

Viendeshi vya Boot

  • HX-M2-240GB 240GB SATA M.2 SSD SATA GB 240.

Unganisha kwenye mtandao kupitia bandari za Ethaneti za 40G, 25G au 10G.

FI inaweza kuwa HX-FI-6332 (40G), HX-FI-6332-16UP (40G), HX-FI-6454 (40G/100G).

Mtihani wenyewe

Ili kujaribu mfumo mdogo wa diski, nilitumia HCIBench 2.2.1. Hii ni matumizi ya bure ambayo hukuruhusu kubinafsisha uundaji wa mzigo kutoka kwa mashine nyingi za kawaida. Mzigo yenyewe huzalishwa na fio ya kawaida.

Nguzo yetu ina nodi nne, replication factor 3, diski zote ni Flash.

Kwa majaribio, niliunda hifadhidata nne na mashine nane za mtandaoni. Kwa vipimo vya kuandika, inachukuliwa kuwa diski ya caching haijajaa.

Matokeo ya mtihani ni kama ifuatavyo:

100% Soma 100% Nasibu

0% Soma 100%Nasibu

Kina cha kuzuia/foleni

128

256

512

1024

2048

128

256

512

1024

2048

4K

0,59 ms 213804 IOPS

0,84 ms 303540 IOPS

1,36ms 374348 IOPS

2.47 ms 414116 IOPS

4,86ms 420180 IOPS

2,22 ms 57408 IOPS

3,09 ms 82744 IOPS

5,02 ms 101824 IPOS

8,75 ms 116912 IOPS

17,2 ms 118592 IOPS

8K

0,67 ms 188416 IOPS

0,93 ms 273280 IOPS

1,7 ms 299932 IOPS

2,72 ms 376,484 IOPS

5,47 ms 373,176 IOPS

3,1 ms 41148 IOPS

4,7 ms 54396 IOPS

7,09 ms 72192 IOPS

12,77 ms 80132 IOPS

16K

0,77 ms 164116 IOPS

1,12 ms 228328 IOPS

1,9 ms 268140 IOPS

3,96 ms 258480 IOPS

3,8 ms 33640 IOPS

6,97 ms 36696 IOPS

11,35 ms 45060 IOPS

32K

1,07 ms 119292 IOPS

1,79 ms 142888 IOPS

3,56 ms 143760 IOPS

7,17 ms 17810 IOPS

11,96 ms 21396 IOPS

64K

1,84 ms 69440 IOPS

3,6 ms 71008 IOPS

7,26 ms 70404 IOPS

11,37 ms 11248 IOPS

Bold inaonyesha maadili baada ya ambayo hakuna ongezeko la tija, wakati mwingine hata uharibifu unaonekana. Hii ni kutokana na ukweli kwamba sisi ni mdogo na utendaji wa mtandao / watawala / disks.

  • Mfuatano ulisomeka 4432 MB/s.
  • Andika kwa mpangilio 804 MB/s.
  • Ikiwa kidhibiti kimoja kitashindwa (kushindwa kwa mashine au seva pangishi), kushuka kwa utendaji ni mara mbili.
  • Ikiwa diski ya uhifadhi itashindwa, mchoro ni 1/3. Uundaji wa diski huchukua 5% ya rasilimali za kila mtawala.

Kwenye kizuizi kidogo, sisi ni mdogo na utendaji wa mtawala (mashine halisi), CPU yake imefungwa kwa 100%, na wakati kizuizi kinapoongezeka, tunapunguzwa na bandwidth ya bandari. 10 Gbps haitoshi kufungua uwezo wa mfumo wa AllFlash. Kwa bahati mbaya, vigezo vya kisimamo cha onyesho kilichotolewa havituruhusu kupima uendeshaji kwa 40 Gbit/s.

Kwa maoni yangu kutoka kwa vipimo na kusoma usanifu, kwa sababu ya algorithm inayoweka data kati ya majeshi yote, tunapata utendaji mbaya, unaoweza kutabirika, lakini hii pia ni kizuizi wakati wa kusoma, kwa sababu itawezekana kufinya zaidi kutoka kwa diski za kawaida, hapa inaweza kuokoa mtandao unaozalisha zaidi, kwa mfano, FI katika 40 Gbit / s inapatikana.

Pia, diski moja ya caching na deduplication inaweza kuwa kizuizi; kwa kweli, katika testbed hii tunaweza kuandika kwa diski nne za SSD. Itakuwa nzuri kuwa na uwezo wa kuongeza idadi ya anatoa za caching na kuona tofauti.

Matumizi ya kweli

Ili kupanga kituo cha data chelezo, unaweza kutumia mbinu mbili (hatuzingatii kuweka nakala kwenye tovuti ya mbali):

  1. Active-Passive. Programu zote zinapangishwa katika kituo kikuu cha data. Urudufishaji ni wa kusawazisha au usiolingana. Ikiwa kituo kikuu cha data kitashindwa, tunahitaji kuamilisha chelezo. Hii inaweza kufanywa kwa mikono/scripts/orchestration applications. Hapa tutapata RPO inayolingana na mzunguko wa kurudia, na RTO inategemea majibu na ujuzi wa msimamizi na ubora wa maendeleo / utatuzi wa mpango wa kubadili.
  2. Inayotumika. Katika hali hii, kuna urudufishaji wa kisawazishaji tu; upatikanaji wa vituo vya data hubainishwa na akidi/kisuluhishi kilicho kwenye tovuti ya tatu. RPO = 0, na RTO inaweza kufikia 0 (ikiwa programu inaruhusu) au sawa na wakati wa kushindwa kwa nodi katika nguzo ya virtualization. Katika kiwango cha uboreshaji, nguzo iliyonyooshwa (Metro) imeundwa ambayo inahitaji hifadhi Inayotumika.

Kwa kawaida tunaona kwamba wateja tayari wametekeleza usanifu na mfumo wa kuhifadhi wa awali katika kituo kikuu cha data, kwa hivyo tunabuni nyingine kwa ajili ya kurudiwa. Kama nilivyosema, Cisco HyperFlex inatoa urudufishaji wa asynchronous na uundaji wa nguzo za uboreshaji ulionyoshwa. Wakati huo huo, hatuhitaji mfumo maalum wa kuhifadhi wa kiwango cha Midrange na cha juu zaidi chenye vitendaji ghali vya urudufishaji na ufikiaji wa data Inayotumika kwenye mifumo miwili ya hifadhi.

Hali ya 1: Tuna vituo vya msingi na chelezo vya data, jukwaa la utangazaji kwenye VMware vSphere. Mifumo yote yenye tija iko katika kituo kikuu cha data, na uigaji wa mashine pepe hufanywa katika kiwango cha hypervisor, hii itaepuka kuwasha VM kwenye kituo cha data chelezo. Tunaiga hifadhidata na programu maalum kwa kutumia zana zilizojengewa ndani na kuwasha VM. Ikiwa kituo kikuu cha data kitashindwa, tunazindua mifumo katika kituo cha hifadhi data. Tunaamini kuwa tuna takriban mashine 100 pepe. Wakati kituo cha msingi cha data kinafanya kazi, kituo cha data cha kusubiri kinaweza kuendesha mazingira ya majaribio na mifumo mingine inayoweza kuzimwa ikiwa kituo cha msingi cha data kitawashwa. Inawezekana pia kwamba tunatumia urudufishaji wa njia mbili. Kutoka kwa mtazamo wa vifaa, hakuna kitu kitabadilika.

Kwa upande wa usanifu wa kitamaduni, tutasakinisha katika kila kituo cha data mfumo wa uhifadhi wa mseto na ufikiaji kupitia FibreChannel, tiering, deduplication na compression (lakini sio mtandaoni), seva 8 kwa kila tovuti, swichi 2 za FibreChannel na 10G Ethernet. Kwa udhibiti wa kurudia na kubadili katika usanifu wa classic, tunaweza kutumia zana za VMware (Replication + SRM) au zana za tatu, ambazo zitakuwa nafuu kidogo na wakati mwingine rahisi zaidi.

Mchoro unaonyesha mchoro.

Msimamizi asiyetumia mikono = hyperconvergence?

Wakati wa kutumia Cisco HyperFlex, usanifu ufuatao unapatikana:

Msimamizi asiyetumia mikono = hyperconvergence?

Kwa HyperFlex, nilitumia seva zilizo na rasilimali kubwa za CPU/RAM, kwa sababu... Rasilimali zingine zitaenda kwa kidhibiti cha HyperFlex VM; kwa suala la CPU na kumbukumbu, hata nilisanidi tena usanidi wa HyperFlex kidogo ili usicheze na Cisco na uhakikishe rasilimali kwa VM zilizobaki. Lakini tunaweza kuachana na swichi za FibreChannel, na hatutahitaji bandari za Ethaneti kwa kila seva; trafiki ya ndani hubadilishwa ndani ya FI.

Matokeo yalikuwa usanidi ufuatao kwa kila kituo cha data:

Seva

Seva ya 8 x 1U (RAM ya GB 384, 2 x Intel Gold 6132, FC HBA)

8 x HX240C-M5L (RAM ya GB 512, 2 x Intel Gold 6150, SSD ya GB 3,2, 10 x 6 TB NL-SAS)

SHD

Mfumo wa kuhifadhi mseto na FC Front-End (20TB SSD, 130 TB NL-SAS)

-

LAN

2 x Ethaneti kubadili bandari 10G 12

-

SAN

2 x FC kubadili 32/16Gb bandari 24

2 x Cisco UCS FI 6332

Leseni

VMware Ent Plus

Urudiaji na/au upangaji wa ubadilishaji wa VM

VMware Ent Plus

Sikutoa leseni za programu ya urudufishaji kwa Hyperflex, kwa kuwa hii inapatikana nje ya kisanduku kwetu.

Kwa usanifu wa classical, nilichagua muuzaji ambaye amejitambulisha kama mtengenezaji wa ubora wa juu na wa gharama nafuu. Kwa chaguzi zote mbili, nilitumia punguzo la kawaida kwa suluhisho maalum, na matokeo yake nilipokea bei halisi.

Suluhisho la Cisco HyperFlex liligeuka kuwa 13% ya bei nafuu.

Hali ya 2: kuundwa kwa vituo viwili vya data vinavyotumika. Katika hali hii, tunaunda nguzo iliyonyoshwa kwenye VMware.

Usanifu wa kawaida una seva za uboreshaji, SAN (itifaki ya FC) na mifumo miwili ya uhifadhi ambayo inaweza kusoma na kuandika kwa sauti iliyopanuliwa kati yao. Kwenye kila mfumo wa kuhifadhi tunaweka uwezo muhimu wa kuhifadhi.

Msimamizi asiyetumia mikono = hyperconvergence?

Kwa HyperFlex tunaunda tu Nguzo ya Kunyoosha yenye idadi sawa ya nodi kwenye tovuti zote mbili. Katika kesi hii, sababu ya replication ya 2 + 2 hutumiwa.

Msimamizi asiyetumia mikono = hyperconvergence?

Matokeo yake ni usanidi ufuatao:

usanifu wa classical

HyperFlex

Seva

Seva ya 16 x 1U (RAM ya GB 384, 2 x Intel Gold 6132, FC HBA, 2 x 10G NIC)

16 x HX240C-M5L (RAM ya GB 512, 2 x Intel Gold 6132, 1,6 TB NVMe, 12 x 3,8 TB SSD, VIC 1387)

SHD

2 x Mifumo ya hifadhi ya AllFlash (150 TB SSD)

-

LAN

4 x Ethaneti kubadili bandari 10G 24

-

SAN

4 x FC kubadili 32/16Gb bandari 24

4 x Cisco UCS FI 6332

Leseni

VMware Ent Plus

VMware Ent Plus

Katika mahesabu yote, sikuzingatia miundombinu ya mtandao, gharama za kituo cha data, nk: zitakuwa sawa kwa usanifu wa classical na kwa ufumbuzi wa HyperFlex.

Kwa upande wa gharama, HyperFlex iligeuka kuwa ghali zaidi ya 5%. Ni muhimu kuzingatia hapa kwamba kwa suala la rasilimali za CPU / RAM nilikuwa na skew kwa Cisco, kwa sababu katika usanidi nilijaza njia za mtawala wa kumbukumbu sawasawa. Gharama ni ya juu kidogo, lakini si kwa amri ya ukubwa, ambayo inaonyesha wazi kwamba hyperconvergence si lazima "toy kwa tajiri", lakini inaweza kushindana na mbinu ya kawaida ya kujenga kituo cha data. Hii inaweza pia kuwa ya kupendeza kwa wale ambao tayari wana seva za Cisco UCS na miundombinu inayolingana kwao.

Miongoni mwa faida, tunapata kutokuwepo kwa gharama za kusimamia SAN na mifumo ya uhifadhi, ukandamizaji wa mtandaoni na upunguzaji, sehemu moja ya kuingilia kwa usaidizi (virtualization, seva, pia ni mifumo ya kuhifadhi), kuokoa nafasi (lakini si katika hali zote), kurahisisha operesheni.

Kuhusu msaada, hapa unapata kutoka kwa muuzaji mmoja - Cisco. Kwa kuzingatia uzoefu wangu na seva za Cisco UCS, ninaipenda; Sikulazimika kuifungua kwenye HyperFlex, kila kitu kilifanya kazi sawa. Wahandisi hujibu mara moja na wanaweza kutatua sio tu shida za kawaida, lakini pia kesi ngumu za makali. Wakati mwingine mimi huwageukia kwa maswali: "Inawezekana kufanya hivi, kuivuta?" au “Nimesanidi kitu hapa, na hakitaki kufanya kazi. Msaada!" - watapata mwongozo unaohitajika hapo na kuashiria vitendo sahihi; hawatajibu: "Tunasuluhisha shida za vifaa tu."

marejeo

Chanzo: mapenzi.com

Kuongeza maoni