Admin tanpa tangan = hyperconvergence?

Admin tanpa tangan = hyperconvergence?
Admin tanpa tangan = hyperconvergence?

Ini adalah mitos yang agak biasa dalam bidang perkakasan pelayan. Dalam amalan, penyelesaian hiperkonvergen (apabila semuanya berada dalam satu) diperlukan untuk banyak perkara. Dari segi sejarah, seni bina pertama telah dibangunkan oleh Amazon dan Google untuk perkhidmatan mereka. Kemudian ideanya adalah untuk membuat ladang pengkomputeran daripada nod yang sama, setiap satunya mempunyai cakera sendiri. Semua ini disatukan oleh beberapa perisian pembentuk sistem (hypervisor) dan dibahagikan kepada mesin maya. Matlamat utama ialah usaha minimum untuk menservis satu nod dan masalah minimum semasa penskalaan: hanya beli seribu atau dua pelayan yang sama dan sambungkannya berdekatan. Dalam amalan, ini adalah kes terpencil, dan lebih kerap kita bercakap tentang bilangan nod yang lebih kecil dan seni bina yang sedikit berbeza.

Tetapi kelebihannya tetap sama - kemudahan penskalaan dan pengurusan yang luar biasa. Kelemahannya ialah tugas yang berbeza menggunakan sumber secara berbeza, dan di sesetengah tempat akan terdapat banyak cakera tempatan, di tempat lain akan terdapat sedikit RAM, dan seterusnya, iaitu, untuk jenis tugas yang berbeza, penggunaan sumber akan berkurangan.

Ternyata anda membayar 10–15% lebih untuk kemudahan persediaan. Inilah yang mencetuskan mitos dalam tajuk tersebut. Kami menghabiskan masa yang lama mencari di mana teknologi akan digunakan secara optimum, dan kami mendapatinya. Hakikatnya ialah Cisco tidak mempunyai sistem storan sendiri, tetapi mereka mahukan pasaran pelayan yang lengkap. Dan mereka membuat Cisco Hyperflex - penyelesaian dengan storan tempatan pada nod.

Dan ini tiba-tiba menjadi penyelesaian yang sangat baik untuk pusat data sandaran (Pemulihan Bencana). Saya akan memberitahu anda mengapa dan bagaimana sekarang. Dan saya akan menunjukkan kepada anda ujian kluster.

Di mana perlu

Hyperconvergence ialah:

  1. Memindahkan cakera untuk mengira nod.
  2. Penyepaduan penuh subsistem storan dengan subsistem virtualisasi.
  3. Pemindahan/penyepaduan dengan subsistem rangkaian.

Gabungan ini membolehkan anda melaksanakan banyak ciri sistem storan pada tahap virtualisasi dan semuanya daripada satu tetingkap kawalan.

Di syarikat kami, projek untuk mereka bentuk pusat data berlebihan sangat diperlukan, dan penyelesaian hiperkonvergen sering dipilih disebabkan oleh sekumpulan pilihan replikasi (sehingga kumpulan metro) di luar kotak.

Dalam kes pusat data sandaran, kita biasanya bercakap tentang kemudahan terpencil di tapak di seberang bandar atau di bandar lain sama sekali. Ia membolehkan anda memulihkan sistem kritikal sekiranya berlaku kegagalan separa atau lengkap pusat data utama. Data jualan sentiasa direplikasi di sana, dan replikasi ini boleh berada di peringkat aplikasi atau di peringkat peranti blok (storan).

Oleh itu, sekarang saya akan bercakap tentang reka bentuk dan ujian sistem, dan kemudian tentang beberapa senario aplikasi kehidupan sebenar dengan data penjimatan.

Ujian

Contoh kami terdiri daripada empat pelayan, setiap satunya mempunyai 10 pemacu SSD sebanyak 960 GB. Terdapat cakera khusus untuk operasi tulis caching dan menyimpan mesin maya perkhidmatan. Penyelesaian itu sendiri adalah versi keempat. Yang pertama terus terang mentah (berdasarkan ulasan), yang kedua lembap, yang ketiga sudah agak stabil, dan yang ini boleh dipanggil keluaran selepas tamat ujian beta untuk orang awam. Semasa ujian saya tidak melihat sebarang masalah, semuanya berfungsi seperti jam.

Perubahan dalam v4Sekumpulan pepijat telah diperbaiki.

Pada mulanya, platform hanya boleh berfungsi dengan hipervisor VMware ESXi dan menyokong sebilangan kecil nod. Juga, proses penempatan tidak selalu berakhir dengan jayanya, beberapa langkah perlu dimulakan semula, terdapat masalah dengan mengemas kini daripada versi lama, data dalam GUI tidak selalu dipaparkan dengan betul (walaupun saya masih tidak berpuas hati dengan paparan graf prestasi ), kadangkala masalah timbul pada antara muka dengan virtualisasi .

Kini semua masalah zaman kanak-kanak telah dibetulkan, HyperFlex boleh mengendalikan kedua-dua ESXi dan Hyper-V, serta mungkin untuk:

  1. Mewujudkan gugusan terbentang.
  2. Mencipta kluster untuk pejabat tanpa menggunakan Fabric Interconnect, daripada dua hingga empat nod (kami hanya membeli pelayan).
  3. Keupayaan untuk bekerja dengan sistem storan luaran.
  4. Sokongan untuk bekas dan Kubernetes.
  5. Penciptaan zon ketersediaan.
  6. Integrasi dengan VMware SRM jika fungsi terbina dalam tidak memuaskan.

Seni bina tidak jauh berbeza daripada penyelesaian pesaing utamanya; mereka tidak mencipta basikal. Semuanya berjalan pada platform virtualisasi VMware atau Hyper-V. Perkakasan dihoskan pada pelayan Cisco UCS proprietari. Terdapat mereka yang membenci platform kerana kerumitan relatif persediaan awal, banyak butang, sistem templat dan kebergantungan yang tidak remeh, tetapi ada juga mereka yang telah mempelajari Zen, diilhamkan oleh idea itu dan tidak lagi mahu untuk bekerja dengan pelayan lain.

Kami akan mempertimbangkan penyelesaian untuk VMware, kerana penyelesaian itu pada asalnya dicipta untuknya dan mempunyai lebih banyak fungsi; Hyper-V telah ditambah di sepanjang jalan untuk bersaing dengan pesaing dan memenuhi jangkaan pasaran.

Terdapat sekumpulan pelayan yang penuh dengan cakera. Terdapat cakera untuk penyimpanan data (SSD atau HDD - mengikut citarasa dan keperluan anda), terdapat satu cakera SSD untuk caching. Apabila menulis data ke stor data, data disimpan pada lapisan caching (cakera SSD khusus dan RAM perkhidmatan VM). Secara selari, satu blok data dihantar ke nod dalam kelompok (bilangan nod bergantung pada faktor replikasi kelompok). Selepas pengesahan daripada semua nod tentang rakaman yang berjaya, pengesahan rakaman dihantar ke hypervisor dan kemudian ke VM. Data yang direkodkan dinyahduplikasi, dimampatkan dan ditulis ke cakera storan di latar belakang. Pada masa yang sama, blok besar sentiasa ditulis pada cakera storan dan secara berurutan, yang mengurangkan beban pada cakera storan.

Penyahduplikasi dan pemampatan sentiasa didayakan dan tidak boleh dilumpuhkan. Data dibaca terus dari cakera storan atau dari cache RAM. Jika konfigurasi hibrid digunakan, bacaan juga dicache pada SSD.

Data tidak terikat dengan lokasi semasa mesin maya dan diedarkan secara sama rata antara nod. Pendekatan ini membolehkan anda memuatkan semua cakera dan antara muka rangkaian secara sama rata. Terdapat kelemahan yang jelas: kami tidak boleh mengurangkan kependaman bacaan sebanyak mungkin, kerana tiada jaminan ketersediaan data secara tempatan. Tetapi saya percaya bahawa ini adalah pengorbanan kecil jika dibandingkan dengan manfaat yang diterima. Lebih-lebih lagi, kelewatan rangkaian telah mencapai nilai sedemikian yang secara praktikalnya tidak menjejaskan hasil keseluruhan.

Pengawal Platform Data VM Cisco HyperFlex perkhidmatan khas, yang dicipta pada setiap nod storan, bertanggungjawab untuk keseluruhan logik operasi subsistem cakera. Dalam konfigurasi VM perkhidmatan kami, lapan vCPU dan 72 GB RAM telah diperuntukkan, yang tidak begitu sedikit. Biar saya ingatkan anda bahawa hos itu sendiri mempunyai 28 teras fizikal dan 512 GB RAM.

Perkhidmatan VM mempunyai akses kepada cakera fizikal secara langsung dengan memajukan pengawal SAS kepada VM. Komunikasi dengan hypervisor berlaku melalui modul khas IOVisor, yang memintas operasi I/O, dan menggunakan ejen yang membolehkan anda menghantar arahan ke API hypervisor. Ejen bertanggungjawab untuk bekerja dengan syot kilat dan klon HyperFlex.

Sumber cakera dipasang dalam hypervisor sebagai perkongsian NFS atau SMB (bergantung pada jenis hypervisor, teka yang mana satu). Dan di bawah tudung, ini ialah sistem fail yang diedarkan yang membolehkan anda menambah ciri sistem storan lengkap dewasa: peruntukan volum nipis, mampatan dan penyahduplikasi, syot kilat menggunakan teknologi Ubah Arah-pada-Tulis, replikasi segerak/tak segerak.

VM perkhidmatan menyediakan akses kepada antara muka pengurusan WEB subsistem HyperFlex. Terdapat penyepaduan dengan vCenter, dan kebanyakan tugas harian boleh dilakukan daripadanya, tetapi stor data, sebagai contoh, adalah lebih mudah untuk dipotong daripada kamera web berasingan jika anda telah bertukar kepada antara muka HTML5 yang pantas atau menggunakan klien Flash sepenuhnya. dengan integrasi penuh. Dalam kamera web perkhidmatan anda boleh melihat prestasi dan status terperinci sistem.

Admin tanpa tangan = hyperconvergence?

Terdapat satu lagi jenis nod dalam kluster - nod pengkomputeran. Ini boleh menjadi pelayan rak atau bilah tanpa cakera terbina dalam. Pelayan ini boleh menjalankan VM yang datanya disimpan pada pelayan dengan cakera. Dari sudut capaian data, tiada perbezaan antara jenis nod, kerana seni bina melibatkan pengabstrakan dari lokasi fizikal data. Nisbah maksimum nod pengkomputeran kepada nod storan ialah 2:1.

Menggunakan nod pengiraan meningkatkan fleksibiliti apabila menskalakan sumber kluster: kita tidak perlu membeli nod tambahan dengan cakera jika kita hanya memerlukan CPU/RAM. Di samping itu, kita boleh menambah sangkar bilah dan menjimatkan penempatan rak pelayan.

Akibatnya, kami mempunyai platform hyperconverged dengan ciri berikut:

  • Sehingga 64 nod dalam kelompok (sehingga 32 nod storan).
  • Bilangan minimum nod dalam kluster ialah tiga (dua untuk kluster Edge).
  • Mekanisme lebihan data: pencerminan dengan faktor replikasi 2 dan 3.
  • Kluster Metro.
  • Replikasi VM tak segerak kepada kelompok HyperFlex yang lain.
  • Orkestrasi menukar VM kepada pusat data jauh.
  • Gambar asli menggunakan teknologi Redirect-on-Write.
  • Sehingga 1 PB ruang boleh guna pada faktor replikasi 3 dan tanpa penduaan. Kami tidak mengambil kira faktor replikasi 2, kerana ini bukan pilihan untuk jualan yang serius.

Satu lagi kelebihan besar ialah kemudahan pengurusan dan penggunaan. Semua kerumitan menyediakan pelayan UCS diuruskan oleh VM khusus yang disediakan oleh jurutera Cisco.

Konfigurasi bangku ujian:

  • 2 x Cisco UCS Fabric Interconnect 6248UP sebagai kluster pengurusan dan komponen rangkaian (48 port beroperasi dalam mod Ethernet 10G/FC 16G).
  • Empat pelayan Cisco UCS HXAF240 M4.

Ciri-ciri pelayan:

CPU

2 x Intel® Xeon® E5-2690 v4

RAM

16 x 32GB DDR4-2400-MHz RDIMM/PC4-19200/dwi kedudukan/x4/1.2v

rangkaian

UCSC-MLOM-CSC-02 (VIC 1227). 2 port Ethernet 10G

Storan HBA

Cisco 12G Modular SAS Pass through Controller

Cakera Storan

1 x SSD Intel S3520 120 GB, 1 x SSD Samsung MZ-IES800D, 10 x SSD Samsung PM863a 960 GB

Lebih banyak pilihan konfigurasiSebagai tambahan kepada perkakasan yang dipilih, pilihan berikut tersedia pada masa ini:

  • HXAF240c M5.
  • Satu atau dua CPU daripada Intel Silver 4110 hingga Intel Platinum I8260Y. Generasi kedua tersedia.
  • 24 slot memori, jalur daripada 16 GB RDIMM 2600 kepada 128 GB LRDIMM 2933.
  • Daripada 6 hingga 23 cakera data, satu cakera caching, satu cakera sistem dan satu cakera but.

Pemacu Kapasiti

  • HX-SD960G61X-EV 960GB 2.5 Inci Nilai Perusahaan 6G SATA SSD (1X ketahanan) SAS 960 GB.
  • HX-SD38T61X-EV 3.8TB 2.5 inci Nilai Perusahaan 6G SATA SSD (ketahanan 1X) SAS 3.8 TB.
  • Caching Pemacu
  • HX-NVMEXPB-I375 375GB 2.5 inci Intel Optane Drive, Prestasi Melampau & Ketahanan.
  • HX-NVMEHW-H1600* 1.6TB 2.5 inci Ent. Perf. NVMe SSD (3X ketahanan) NVMe 1.6 TB.
  • HX-SD400G12TX-EP 400GB 2.5 inci Ent. Perf. 12G SAS SSD (10X ketahanan) SAS 400 GB.
  • HX-SD800GBENK9** 800GB 2.5 inci Ent. Perf. 12G SAS SED SSD (10X ketahanan) SAS 800 GB.
  • HX-SD16T123X-EP 1.6TB 2.5 inci Prestasi perusahaan 12G SAS SSD (3X ketahanan).

Pemacu Sistem/Log

  • HX-SD240GM1X-EV 240GB 2.5 inci Nilai Perusahaan 6G SATA SSD (Memerlukan peningkatan).

Pemacu But

  • HX-M2-240GB 240GB SATA M.2 SSD SATA 240 GB.

Sambung ke rangkaian melalui port Ethernet 40G, 25G atau 10G.

FI boleh menjadi HX-FI-6332 (40G), HX-FI-6332-16UP (40G), HX-FI-6454 (40G/100G).

Ujian itu sendiri

Untuk menguji subsistem cakera, saya menggunakan HCIBench 2.2.1. Ini ialah utiliti percuma yang membolehkan anda mengautomasikan penciptaan beban daripada berbilang mesin maya. Beban itu sendiri dijana oleh fio biasa.

Kelompok kami terdiri daripada empat nod, faktor replikasi 3, semua cakera adalah Flash.

Untuk ujian, saya mencipta empat stor data dan lapan mesin maya. Untuk ujian tulis, diandaikan bahawa cakera caching tidak penuh.

Keputusan ujian adalah seperti berikut:

100% Baca 100% Rawak

0% Baca 100% Rawak

Kedalaman blok/baris gilir

128

256

512

1024

2048

128

256

512

1024

2048

4K

0,59 ms 213804 IOPS

0,84 ms 303540 IOPS

1,36ms 374348 IOPS

2.47 ms 414116 IOPS

4,86ms 420180 IOPS

2,22 ms 57408 IOPS

3,09 ms 82744 IOPS

5,02 ms 101824 IPOS

8,75 ms 116912 IOPS

17,2 ms 118592 IOPS

8K

0,67 ms 188416 IOPS

0,93 ms 273280 IOPS

1,7 ms 299932 IOPS

2,72 ms 376,484 IOPS

5,47 ms 373,176 IOPS

3,1 ms 41148 IOPS

4,7 ms 54396 IOPS

7,09 ms 72192 IOPS

12,77 ms 80132 IOPS

16K

0,77 ms 164116 IOPS

1,12 ms 228328 IOPS

1,9 ms 268140 IOPS

3,96 ms 258480 IOPS

3,8 ms 33640 IOPS

6,97 ms 36696 IOPS

11,35 ms 45060 IOPS

32K

1,07 ms 119292 IOPS

1,79 ms 142888 IOPS

3,56 ms 143760 IOPS

7,17 ms 17810 IOPS

11,96 ms 21396 IOPS

64K

1,84 ms 69440 IOPS

3,6 ms 71008 IOPS

7,26 ms 70404 IOPS

11,37 ms 11248 IOPS

Bold menunjukkan nilai yang selepas itu tiada peningkatan dalam produktiviti, kadangkala kemerosotan dapat dilihat. Ini disebabkan oleh fakta bahawa kita dihadkan oleh prestasi rangkaian/pengawal/cakera.

  • Bacaan berurutan 4432 MB/s.
  • Tulisan berurutan 804 MB/s.
  • Jika satu pengawal gagal (kegagalan mesin maya atau hos), penurunan prestasi adalah dua kali ganda.
  • Jika cakera storan gagal, pengeluaran adalah 1/3. Pembinaan semula cakera mengambil 5% daripada sumber setiap pengawal.

Pada blok kecil, kami dihadkan oleh prestasi pengawal (mesin maya), CPUnya dimuatkan pada 100%, dan apabila blok meningkat, kami dihadkan oleh lebar jalur port. 10 Gbps tidak mencukupi untuk membuka kunci potensi sistem AllFlash. Malangnya, parameter pendirian demo yang disediakan tidak membenarkan kami menguji operasi pada 40 Gbit/s.

Dalam tanggapan saya daripada ujian dan mengkaji seni bina, disebabkan oleh algoritma yang meletakkan data antara semua hos, kami mendapat prestasi yang boleh skala dan boleh diramal, tetapi ini juga merupakan had semasa membaca, kerana ia mungkin untuk memerah lebih banyak daripada cakera tempatan, di sini ia mungkin menjimatkan rangkaian yang lebih produktif, contohnya, FI pada 40 Gbit/s tersedia.

Juga, satu cakera untuk caching dan penyahduplikasian mungkin menjadi had; sebenarnya, dalam ujian ini kita boleh menulis kepada empat cakera SSD. Alangkah baiknya jika dapat meningkatkan bilangan pemacu caching dan melihat perbezaannya.

Penggunaan sebenar

Untuk mengatur pusat data sandaran, anda boleh menggunakan dua pendekatan (kami tidak mempertimbangkan untuk meletakkan sandaran pada tapak terpencil):

  1. Aktif pasif. Semua aplikasi dihoskan di pusat data utama. Replikasi adalah segerak atau tak segerak. Jika pusat data utama gagal, kami perlu mengaktifkan satu sandaran. Ini boleh dilakukan secara manual/skrip/aplikasi orkestra. Di sini kita akan mendapat RPO yang sepadan dengan kekerapan replikasi, dan RTO bergantung pada reaksi dan kemahiran pentadbir dan kualiti pembangunan/penyahpepijat pelan pensuisan.
  2. Aktif-Aktif. Dalam kes ini, hanya terdapat replikasi segerak; ketersediaan pusat data ditentukan oleh kuorum/arbiter yang terletak betul-betul di tapak ketiga. RPO = 0, dan RTO boleh mencapai 0 (jika aplikasi membenarkan) atau sama dengan masa failover nod dalam kelompok virtualisasi. Pada peringkat virtualisasi, gugusan terbentang (Metro) dicipta yang memerlukan storan Aktif-Aktif.

Biasanya kami melihat bahawa pelanggan telah pun melaksanakan seni bina dengan sistem storan klasik dalam pusat data utama, jadi kami mereka bentuk satu lagi untuk replikasi. Seperti yang saya nyatakan, Cisco HyperFlex menawarkan replikasi tak segerak dan penciptaan kluster virtualisasi yang diregangkan. Pada masa yang sama, kami tidak memerlukan sistem storan khusus pada tahap Midrange dan lebih tinggi dengan fungsi replikasi yang mahal dan akses data Aktif-Aktif pada dua sistem storan.

Senario 1: Kami mempunyai pusat data utama dan sandaran, platform virtualisasi pada VMware vSphere. Semua sistem produktif terletak di pusat data utama, dan replikasi mesin maya dilakukan pada tahap hypervisor, ini akan mengelakkan memastikan VM dihidupkan dalam pusat data sandaran. Kami mereplikasi pangkalan data dan aplikasi khas menggunakan alat terbina dalam dan memastikan VM dihidupkan. Jika pusat data utama gagal, kami melancarkan sistem dalam pusat data sandaran. Kami percaya bahawa kami mempunyai kira-kira 100 mesin maya. Walaupun pusat data utama beroperasi, pusat data siap sedia boleh menjalankan persekitaran ujian dan sistem lain yang boleh ditutup jika pusat data utama bertukar. Mungkin juga kita menggunakan replikasi dua hala. Dari sudut perkakasan, tiada apa yang akan berubah.

Dalam kes seni bina klasik, kami akan memasang di setiap pusat data sistem storan hibrid dengan akses melalui FibreChannel, peringkat, penyahduplikasian dan pemampatan (tetapi bukan dalam talian), 8 pelayan untuk setiap tapak, 2 suis FibreChannel dan 10G Ethernet. Untuk pengurusan replikasi dan pensuisan dalam seni bina klasik, kami boleh menggunakan alat VMware (Replikasi + SRM) atau alatan pihak ketiga, yang akan menjadi lebih murah sedikit dan kadangkala lebih mudah.

Rajah menunjukkan rajah.

Admin tanpa tangan = hyperconvergence?

Apabila menggunakan Cisco HyperFlex, seni bina berikut diperoleh:

Admin tanpa tangan = hyperconvergence?

Untuk HyperFlex, saya menggunakan pelayan dengan sumber CPU/RAM yang besar, kerana... Beberapa sumber akan pergi ke VM pengawal HyperFlex; dari segi CPU dan memori, saya juga mengkonfigurasi semula konfigurasi HyperFlex sedikit supaya tidak bermain bersama Cisco dan menjamin sumber untuk VM yang tinggal. Tetapi kami boleh meninggalkan suis FibreChannel, dan kami tidak memerlukan port Ethernet untuk setiap pelayan; trafik tempatan ditukar dalam FI.

Hasilnya ialah konfigurasi berikut untuk setiap pusat data:

Pelayan

8 x Pelayan 1U (384 GB RAM, 2 x Intel Gold 6132, FC HBA)

8 x HX240C-M5L (512 GB RAM, 2 x Intel Gold 6150, 3,2 GB SSD, 10 x 6 TB NL-SAS)

SHD

Sistem storan hibrid dengan FC Front-End (20TB SSD, 130 TB NL-SAS)

-

LAN

2 x suis Ethernet 10G 12 port

-

SAN

2 x suis FC 32/16Gb 24 port

2 x Cisco UCS FI 6332

Lesen

VMware Ent Plus

Replikasi dan/atau orkestrasi penukaran VM

VMware Ent Plus

Saya tidak menyediakan lesen perisian replikasi untuk Hyperflex, kerana ini tersedia di luar kotak untuk kami.

Untuk seni bina klasik, saya memilih vendor yang telah membuktikan dirinya sebagai pengeluar berkualiti tinggi dan murah. Untuk kedua-dua pilihan, saya menggunakan diskaun standard untuk penyelesaian khusus, dan hasilnya saya menerima harga sebenar.

Penyelesaian Cisco HyperFlex ternyata 13% lebih murah.

Senario 2: penciptaan dua pusat data aktif. Dalam senario ini, kami sedang mereka bentuk gugusan terbentang pada VMware.

Seni bina klasik terdiri daripada pelayan virtualisasi, SAN (protokol FC) dan dua sistem storan yang boleh membaca dan menulis mengikut volum yang terbentang di antara mereka. Pada setiap sistem storan kami meletakkan kapasiti berguna untuk penyimpanan.

Admin tanpa tangan = hyperconvergence?

Di HyperFlex kami hanya mencipta Kelompok Regangan dengan bilangan nod yang sama di kedua-dua tapak. Dalam kes ini, faktor replikasi 2+2 digunakan.

Admin tanpa tangan = hyperconvergence?

Hasilnya ialah konfigurasi berikut:

seni bina klasik

HyperFlex

Pelayan

16 x 1U Pelayan (384 GB RAM, 2 x Intel Gold 6132, FC HBA, 2 x 10G NIC)

16 x HX240C-M5L (512 GB RAM, 2 x Intel Gold 6132, 1,6 TB NVMe, 12 x 3,8 TB SSD, VIC 1387)

SHD

2 x Sistem storan AllFlash (150 TB SSD)

-

LAN

4 x suis Ethernet 10G 24 port

-

SAN

4 x suis FC 32/16Gb 24 port

4 x Cisco UCS FI 6332

Lesen

VMware Ent Plus

VMware Ent Plus

Dalam semua pengiraan, saya tidak mengambil kira infrastruktur rangkaian, kos pusat data, dll.: mereka akan sama untuk seni bina klasik dan untuk penyelesaian HyperFlex.

Dari segi kos, HyperFlex ternyata 5% lebih mahal. Perlu diperhatikan di sini bahawa dari segi sumber CPU/RAM saya mempunyai kecenderungan untuk Cisco, kerana dalam konfigurasi saya mengisi saluran pengawal memori secara sama rata. Kosnya lebih tinggi sedikit, tetapi bukan mengikut susunan magnitud, yang jelas menunjukkan bahawa hiperkonvergensi tidak semestinya "mainan untuk orang kaya", tetapi boleh bersaing dengan pendekatan standard untuk membina pusat data. Ini juga mungkin menarik minat mereka yang sudah mempunyai pelayan Cisco UCS dan infrastruktur yang sepadan untuk mereka.

Antara kelebihannya, kami mendapat ketiadaan kos untuk mentadbir SAN dan sistem storan, pemampatan dan penyahduplikasi dalam talian, satu titik masuk untuk sokongan (virtualisasi, pelayan, mereka juga sistem storan), menjimatkan ruang (tetapi tidak dalam semua senario), memudahkan operasi.

Bagi sokongan, di sini anda mendapatkannya daripada satu vendor - Cisco. Berdasarkan pengalaman saya dengan pelayan Cisco UCS, saya menyukainya; Saya tidak perlu membukanya pada HyperFlex, semuanya berfungsi sama. Jurutera bertindak balas dengan segera dan boleh menyelesaikan bukan sahaja masalah biasa, tetapi juga kes tepi yang kompleks. Kadang-kadang saya berpaling kepada mereka dengan soalan: "Adakah mungkin untuk melakukan ini, kacau?" atau "Saya mengkonfigurasi sesuatu di sini, dan ia tidak mahu berfungsi. Tolong!" - mereka akan dengan sabar mencari panduan yang diperlukan di sana dan menunjukkan tindakan yang betul; mereka tidak akan menjawab: "Kami hanya menyelesaikan masalah perkakasan."

rujukan

Sumber: www.habr.com

Tambah komen