Cisco HyperFlex vs. өрсөлдөгчид: туршилтын гүйцэтгэл

Бид та бүхэнд Cisco HyperFlex hyperconverged системийг үргэлжлүүлэн танилцуулсаар байна.

2019 оны XNUMX-р сард Cisco нь Орос, Казахстаны бүс нутгуудад Cisco HyperFlex шинэ гиперконверген шийдлийн цуврал үзүүлэнг дахин зохион байгуулж байна. Та линкээр орж санал хүсэлтийн маягтыг ашиглан жагсаалд бүртгүүлэх боломжтой. Бидэнтэй нэгд!

Бид өмнө нь 2017 онд бие даасан ESG лабораторийн хийсэн ачааллын туршилтуудын тухай нийтлэлийг нийтэлсэн. 2018 онд Cisco HyperFlex шийдлийн (HX 3.0 хувилбар) гүйцэтгэл мэдэгдэхүйц сайжирсан. Үүнээс гадна, өрсөлдөх чадвартай шийдлүүд мөн сайжирсаар байна. Тийм ч учраас бид ESG-ийн стрессийн жишиг үзүүлэлтүүдийн шинэ, илүү сүүлийн үеийн хувилбарыг нийтэлж байна.

2018 оны зун ESG лаборатори Cisco HyperFlex-ийг өрсөлдөгчидтэй нь дахин харьцуулсан. Програм хангамжаар тодорхойлсон шийдлүүдийг ашиглах өнөөгийн чиг хандлагыг харгалзан ижил төстэй платформ үйлдвэрлэгчдийг харьцуулсан шинжилгээнд нэмж оруулсан болно.

Туршилтын тохиргоо

Туршилтын хүрээнд HyperFlex-ийг стандарт x86 сервер дээр суурилуулсан хоёр бүрэн програм хангамжийн гиперконвержид системтэй, мөн нэг програм хангамж, техник хангамжийн шийдэлтэй харьцуулсан. Туршилтыг Oracle Vdbench хэрэгслийг ашигладаг, туршилтын процессыг автоматжуулдаг HCIBench - гиперконвергед системд зориулсан стандарт програм хангамжийг ашиглан хийсэн. Ялангуяа HCIBench нь виртуал машинуудыг автоматаар үүсгэж, тэдгээрийн хоорондох ачааллыг зохицуулж, тохиромжтой, ойлгомжтой тайлангуудыг гаргадаг.  

Нэг кластерт 140 виртуал машин бий болсон (кластерын зангилаа бүрт 35). Виртуал машин бүр 4 vCPU, 4 GB RAM ашигласан. Дотоод VM диск нь 16 ГБ, нэмэлт диск нь 40 ГБ байв.

Дараах кластерийн тохиргоонууд туршилтанд оролцсон:

  • дөрвөн Cisco HyperFlex 220C зангилааны кластер, кэшэд зориулсан 1 x 400 GB SSD, өгөгдөлд зориулсан 6 x 1.2 TB SAS HDD;
  • өрсөлдөгч борлуулагч Дөрвөн зангилааны кластер нь кэшэд зориулсан 2 x 400 GB SSD, өгөгдөлд зориулсан 4 x 1 TB SATA HDD;
  • өрсөлдөгч Vendor B дөрвөн зангилааны кластер нь кэшэд зориулсан 2 x 400 GB SSD, өгөгдлийн хувьд 12 x 1.2 TB SAS HDD;
  • өрсөлдөгч Vendor C дөрвөн зангилааны кластер нь кэшэд зориулсан 4 x 480 GB SSD, өгөгдлийн хувьд 12 x 900 GB SAS HDD.

Бүх шийдлүүдийн процессор болон RAM нь ижил байв.

Виртуал машинуудын тоог шалгах

Туршилт нь стандарт OLTP тестийг дуурайлган хийх ажлын ачааллаас эхэлсэн: унших/бичих (RW) 70%/30%, виртуал машин (VM) тутамд 100 IOPS зорилтот 800% FullRandom. Туршилтыг кластер бүрт 140 VM дээр гурваас дөрвөн цагийн турш явуулсан. Туршилтын зорилго нь аль болох олон VM дээр бичих хоцролтыг 5 миллисекунд ба түүнээс доош байлгах явдал юм.

Туршилтын үр дүнд (доорх графикийг харна уу) HyperFlex нь эхний 140 VM-тэй, 5 мс (4,95 мс)-ээс бага хоцролттой энэ туршилтыг дуусгасан цорын ганц платформ байсан юм. Бусад кластер бүрийн хувьд VM-ийн тоог хэд хэдэн давталтаар 5 мс-ийн зорилтот хоцролтод туршилтаар тохируулахын тулд туршилтыг дахин эхлүүлсэн.

Борлуулагч А нь дунджаар 70 мс хариу өгөх хугацаатай 4,65 VM-ийг амжилттай зохицуулсан.
Борлуулагч В нь шаардлагатай 5,37 мс хоцрогдолд хүрсэн. зөвхөн 36 VM-тэй.
Худалдагч С нь 48 мс хариулах хугацаатай 5,02 виртуал машинтай ажиллах боломжтой болсон

Cisco HyperFlex vs. өрсөлдөгчид: туршилтын гүйцэтгэл

SQL сервер ачааллын эмуляц

Дараа нь ESG Lab нь SQL серверийн ачааллыг дуурайв. Туршилтанд өөр өөр блок хэмжээ болон унших/бичих харьцааг ашигласан. Туршилтыг мөн 140 виртуал машин дээр явуулсан.

Доорх зурагт үзүүлснээр Cisco HyperFlex кластер нь IOPS-ийн А ба В үйлдвэрлэгчдээс бараг хоёр дахин, үйлдвэрлэгч С-ээс тав дахин илүү сайн ажилласан. Cisco HyperFlex-ийн хариу өгөх дундаж хугацаа 8,2 мс байв. Харьцуулбал, А борлуулагчийн хариу өгөх дундаж хугацаа 30,6 мс, Б борлуулагчийн хувьд 12,8 мс, С борлуулагчийн хувьд 10,33 мс байсан.

Cisco HyperFlex vs. өрсөлдөгчид: туршилтын гүйцэтгэл

Бүх туршилтын үеэр нэгэн сонирхолтой ажиглалт хийсэн. Борлуулагч В нь өөр өөр VM дээр IOPS-ийн дундаж гүйцэтгэлийн мэдэгдэхүйц өөрчлөлтийг харуулсан. Өөрөөр хэлбэл, ачааллыг маш жигд бус хуваарилсан, зарим VM-үүд дунджаар 1000 IOPS+, зарим нь 64 IOPS-ийн утгатай ажилласан. Энэ тохиолдолд Cisco HyperFlex илүү тогтвортой харагдаж байсан бөгөөд бүх 140 VM нь хадгалах дэд системээс дунджаар 600 IOPS хүлээн авсан, өөрөөр хэлбэл виртуал машинуудын хоорондох ачааллыг маш жигд хуваарилсан.

Cisco HyperFlex vs. өрсөлдөгчид: туршилтын гүйцэтгэл

Туршилтын давталт бүрт В үйлдвэрлэгчийн виртуал машинуудад IOPS-ийн ийм жигд бус хуваарилалт ажиглагдаж байгааг анхаарах нь чухал юм.

Бодит үйлдвэрлэлд системийн энэ зан байдал нь администраторуудын хувьд том асуудал байж болох бөгөөд үнэн хэрэгтээ бие даасан виртуал машинууд санамсаргүй байдлаар хөлдөж эхэлдэг бөгөөд энэ үйл явцыг хянах бараг арга байхгүй. Б үйлдвэрлэгчийн шийдлийг ашиглах үед тэнцвэрийг ачаалах цорын ганц, тийм ч амжилттай биш арга бол нэг юмуу өөр QoS буюу тэнцвэржүүлэх хэрэгжилтийг ашиглах явдал юм.

дүгнэлт

Cisco Hyperflex-д 140 физик зангилаанд 1 виртуал машин байгаа бол бусад шийдлүүдийн хувьд 70 ба түүнээс бага виртуал машин байгаа талаар бодоцгооё? Бизнесийн хувьд энэ нь Hyperflex дээрх ижил тооны програмуудыг дэмжихийн тулд өрсөлдөгчийн шийдлээс 2 дахин бага зангилаа хэрэгтэй гэсэн үг юм. эцсийн систем нь хамаагүй хямд байх болно. Хэрэв бид HX Data Platform сүлжээ, сервер, хадгалах платформыг хадгалах бүх үйл ажиллагааны автоматжуулалтын түвшинг энд нэмбэл Cisco Hyperflex шийдлүүд яагаад зах зээлд маш хурдан алдартай болж байгаа нь тодорхой болно.

Ерөнхийдөө ESG Labs нь Cisco HyperFlex Hybrid HX 3.0 нь бусад харьцуулж болох шийдлүүдээс илүү хурдан бөгөөд тогтвортой гүйцэтгэлийг хангадаг болохыг баталсан.

Үүний зэрэгцээ HyperFlex эрлийз кластерууд нь IOPS болон Latency-ийн хувьд өрсөлдөгчдөөсөө түрүүлж байв. Үүний нэгэн адил чухал ач холбогдолтой зүйл бол бүхэл бүтэн хадгалах санд маш сайн хуваарилагдсан ачааллаар HyperFlex гүйцэтгэлд хүрсэн.

Та яг одоо Cisco Hyperflex шийдлийг харж, түүний чадварыг шалгах боломжтой гэдгийг сануулъя. Системийг хүн бүрт үзүүлэх боломжтой:

Эх сурвалж: www.habr.com

сэтгэгдэл нэмэх