Nastavljamo da vas upoznajemo sa Cisco HyperFlex hiperkonvergiranim sistemom.
U aprilu 2019. Cisco ponovo sprovodi seriju demonstracija novog hiperkonvergentnog rešenja Cisco HyperFlex u regionima Rusije i Kazahstana. Možete se prijaviti za demonstraciju pomoću obrasca za povratne informacije slijedeći link. Pridruži nam se!
Prethodno smo objavili članak o testovima opterećenja koje je izvršio nezavisni ESG Lab 2017. U 2018. performanse Cisco HyperFlex rješenja (verzija HX 3.0) su značajno poboljšane. Osim toga, konkurentna rješenja također nastavljaju da se poboljšavaju. Zato objavljujemo novu, noviju verziju ESG-ovih mjerila stresa.
U ljeto 2018. ESG laboratorija je ponovo uporedila Cisco HyperFlex sa svojim konkurentima. Uzimajući u obzir trenutni trend korištenja softverski definiranih rješenja, u uporednu analizu su dodani i proizvođači sličnih platformi.
Test konfiguracije
U okviru testiranja, HyperFlex je upoređen sa dva potpuno softverska hiperkonvergentna sistema koja su instalirana na standardnim x86 serverima, kao i sa jednim softverskim i hardverskim rešenjem. Testiranje je obavljeno pomoću standardnog softvera za hiperkonvergirane sisteme - HCIBench, koji koristi alat Oracle Vdbench i automatizira proces testiranja. Konkretno, HCIBench automatski kreira virtuelne mašine, koordinira opterećenje između njih i generiše pogodne i razumljive izveštaje.
Kreirano je 140 virtuelnih mašina po klasteru (35 po čvoru klastera). Svaka virtuelna mašina koristila je 4 vCPU-a, 4 GB RAM-a. Lokalni VM disk je bio 16 GB, a dodatni disk 40 GB.
U testiranju su učestvovale sljedeće konfiguracije klastera:
- grupa od četiri Cisco HyperFlex 220C čvora 1 x 400 GB SSD za keš memoriju i 6 x 1.2 TB SAS HDD za podatke;
- konkurent Dobavljač Klaster od četiri čvora 2 x 400 GB SSD za keš memoriju i 4 x 1 TB SATA HDD za podatke;
- konkurentski Dobavljač B klaster od četiri čvora 2 x 400 GB SSD za keš memoriju i 12 x 1.2 TB SAS HDD za podatke;
- konkurentski Dobavljač C klaster od četiri čvora 4 x 480 GB SSD za keš memoriju i 12 x 900 GB SAS HDD za podatke.
Procesori i RAM svih rješenja bili su identični.
Testirajte broj virtuelnih mašina
Testiranje je počelo sa radnim opterećenjem dizajniranim da emulira standardni OLTP test: čitanje/pisanje (RW) 70%/30%, 100% FullRandom sa ciljem od 800 IOPS po virtuelnoj mašini (VM). Test je izveden na 140 VM-a u svakom klasteru u trajanju od tri do četiri sata. Cilj testa je zadržati kašnjenje pisanja na što više VM-ova na 5 milisekundi ili manje.
Kao rezultat testa (pogledajte grafikon ispod), HyperFlex je bila jedina platforma koja je završila ovaj test sa početnih 140 VM-a i sa latencijama ispod 5 ms (4,95 ms). Za svaki od ostalih klastera, test je ponovo pokrenut kako bi se eksperimentalno prilagodio broj VM-a na ciljnu latenciju od 5 ms u nekoliko iteracija.
Dobavljač A je uspješno obradio 70 VM-ova sa prosječnim vremenom odziva od 4,65 ms.
Dobavljač B je postigao potrebnu latenciju od 5,37 ms. samo sa 36 VM.
Dobavljač C je bio u stanju da rukuje sa 48 virtuelnih mašina sa vremenom odziva od 5,02 ms
Emulacija učitavanja SQL Servera
Zatim je ESG Lab emulirao opterećenje SQL Servera. Test je koristio različite veličine blokova i omjere čitanja/pisanja. Test je takođe izveden na 140 virtuelnih mašina.
Kao što je prikazano na slici ispod, Cisco HyperFlex klaster je nadmašio dobavljače A i B u IOPS-u skoro dvostruko, a dobavljača C više od pet puta. Prosečno vreme odziva Cisco HyperFlex-a bilo je 8,2 ms. Poređenja radi, prosječno vrijeme odgovora za dobavljača A bilo je 30,6 ms, za dobavljača B je bilo 12,8 ms, a za dobavljača C je bilo 10,33 ms.
Zanimljivo zapažanje je napravljeno tokom svih testova. Dobavljač B pokazao je značajnu varijaciju u prosječnim performansama u IOPS na različitim VM-ovima. Odnosno, opterećenje je bilo raspoređeno izuzetno neravnomjerno, neki VM-ovi su radili s prosječnom vrijednošću od 1000 IOPS+, a neki - s vrijednošću od 64 IOPS. Cisco HyperFlex je u ovom slučaju izgledao mnogo stabilnije, svih 140 VM-a je primilo u proseku 600 IOPS od podsistema za skladištenje, odnosno opterećenje između virtuelnih mašina je bilo raspoređeno veoma ravnomerno.
Važno je napomenuti da je takva neravnomjerna raspodjela IOPS-a po virtuelnim mašinama kod dobavljača B uočena u svakoj iteraciji testiranja.
U stvarnoj proizvodnji ovakvo ponašanje sistema može predstavljati veliki problem za administratore; zapravo, pojedinačne virtuelne mašine nasumično počinju da se zamrzavaju i praktično ne postoji način da se kontroliše ovaj proces. Jedini, ne baš uspješan način za balansiranje opterećenja kada se koristi rješenje dobavljača B je korištenje jedne ili druge implementacije QoS-a ili balansiranja.
zaključak
Hajde da razmislimo o tome šta Cisco Hyperflex ima 140 virtuelnih mašina po 1 fizičkom čvoru u odnosu na 70 ili manje za druga rešenja? Za poslovanje, to znači da je za podršku istog broja aplikacija na Hyperflexu potrebno 2 puta manje čvorova nego kod konkurentskih rješenja, tj. konačni sistem će biti mnogo jeftiniji. Ako tu dodamo nivo automatizacije svih operacija održavanja mreže, servera i platforme za skladištenje podataka HX Data Platform, postaje jasno zašto Cisco Hyperflex rešenja tako brzo dobijaju na popularnosti na tržištu.
Sve u svemu, ESG Labs je potvrdio da Cisco HyperFlex Hybrid HX 3.0 pruža brže i dosljednije performanse od drugih uporedivih rješenja.
Istovremeno, HyperFlex hibridni klasteri su takođe bili ispred konkurenata u pogledu IOPS-a i kašnjenja. Jednako važno, performanse HyperFlex-a su postignute sa vrlo dobro raspoređenim opterećenjem na cijelo skladište.
Podsjetimo, Cisco Hyperflex rješenje možete vidjeti i provjeriti njegove mogućnosti upravo sada. Sistem je dostupan za demonstraciju svima:
izvor: www.habr.com