Əlləri olmayan admin = hiperkonvergensiya?

Əlləri olmayan admin = hiperkonvergensiya?
Əlləri olmayan admin = hiperkonvergensiya?

Bu, server avadanlıqları sahəsində olduqca yaygın olan bir mifdir. Praktikada bir çox şey üçün hiperkonverged həllər (hər şey bir yerdə olduqda) lazımdır. Tarixən ilk arxitekturalar öz xidmətləri üçün Amazon və Google tərəfindən hazırlanmışdır. Sonra ideya hər birinin öz diskləri olan eyni qovşaqlardan hesablama ferması yaratmaq idi. Bütün bunlar bəzi sistem yaradan proqram təminatı (hipervizor) tərəfindən birləşdirildi və virtual maşınlara bölündü. Əsas məqsəd bir node xidmət göstərmək üçün minimum səy və miqyaslandırarkən minimum problemdir: eyni serverlərdən başqa min və ya ikisini satın alın və onları yaxınlıqda birləşdirin. Praktikada bunlar təcrid olunmuş hallardır və daha tez-tez daha az sayda qovşaq və bir az fərqli bir arxitekturadan danışırıq.

Ancaq artı eyni olaraq qalır - miqyaslaşdırma və idarəetmənin inanılmaz asanlığı. İşin mənfi tərəfi odur ki, müxtəlif tapşırıqlar resursları fərqli şəkildə istehlak edir və bəzi yerlərdə çoxlu lokal disklər, digərlərində isə RAM az olacaq və s, yəni müxtəlif növ tapşırıqlar üçün resurslardan istifadə azalacaq.

Belə çıxır ki, quraşdırma asanlığı üçün 10-15% daha çox ödəyirsiniz. Bu başlıqdakı mifi alovlandırdı. Biz uzun müddət texnologiyanın harada optimal şəkildə tətbiq olunacağını axtardıq və onu tapdıq. Fakt budur ki, Cisco-nun öz saxlama sistemləri yox idi, lakin onlar tam server bazarı istəyirdilər. Və onlar Cisco Hyperflex - qovşaqlarda yerli saxlama həlli yaratdılar.

Və bu, birdən-birə ehtiyat məlumat mərkəzləri üçün çox yaxşı bir həll oldu (Fəlakət Bərpası). İndi niyə və necə deyəcəm. Mən sizə klaster testlərini göstərəcəyəm.

Lazım olan yerdə

Hiperkonvergensiya:

  1. Disklərin hesablama qovşaqlarına köçürülməsi.
  2. Yaddaş alt sisteminin virtuallaşdırma alt sistemi ilə tam inteqrasiyası.
  3. Şəbəkə alt sistemi ilə köçürmə/inteqrasiya.

Bu kombinasiya bir çox saxlama sistemi funksiyalarını virtuallaşdırma səviyyəsində və hamısını bir idarəetmə pəncərəsindən həyata keçirməyə imkan verir.

Şirkətimizdə lazımsız məlumat mərkəzlərinin layihələndirilməsi layihələri böyük tələbatdır və qutudan kənarda bir çox replika variantları (bir metroklasterə qədər) səbəbindən hiperkonverged həll tez-tez seçilir.

Ehtiyat məlumat mərkəzləri vəziyyətində, biz ümumiyyətlə şəhərin digər tərəfində və ya ümumiyyətlə başqa bir şəhərdə yerləşən uzaq bir obyektdən danışırıq. Əsas məlumat mərkəzinin qismən və ya tam nasazlığı halında kritik sistemləri bərpa etməyə imkan verir. Orada satış məlumatları daim təkrarlanır və bu replikasiya proqram səviyyəsində və ya blok cihazı (saxlama) səviyyəsində ola bilər.

Buna görə də, indi sistemin dizaynı və sınaqları haqqında, sonra qənaət məlumatları ilə real həyatda tətbiq olunan bir neçə ssenari haqqında danışacağam.

Testlər

Nümunəmiz hər birində 10 GB-lıq 960 SSD sürücüsü olan dörd serverdən ibarətdir. Yazma əməliyyatlarının keşləşdirilməsi və xidmətin virtual maşınının saxlanması üçün xüsusi disk mövcuddur. Həllin özü dördüncü versiyadır. Birincisi açıq şəkildə kobuddur (rəylərə görə), ikincisi nəmdir, üçüncüsü artıq kifayət qədər sabitdir və bunu geniş ictimaiyyət üçün beta testi bitdikdən sonra buraxılış adlandırmaq olar. Test zamanı heç bir problem görmədim, hər şey saat kimi işləyir.

v4-də dəyişikliklərBir dəstə səhv düzəldildi.

Əvvəlcə platforma yalnız VMware ESXi hipervizoru ilə işləyə bildi və az sayda qovşaqları dəstəklədi. Həmçinin, yerləşdirmə prosesi həmişə uğurla başa çatmırdı, bəzi addımlar yenidən başlamalı idi, köhnə versiyalardan yenilənmə ilə bağlı problemlər var idi, GUI-dəki məlumatlar həmişə düzgün göstərilmirdi (baxmayaraq ki, performans qrafiklərinin nümayişindən hələ də razı deyiləm). ), bəzən virtuallaşdırma ilə interfeysdə problemlər yaranırdı.

İndi bütün uşaqlıq problemləri aradan qaldırıldı, HyperFlex həm ESXi, həm də Hyper-V-ni idarə edə bilər, üstəlik:

  1. Uzatılmış klasterin yaradılması.
  2. Fabric Interconnect istifadə etmədən ofislər üçün klaster yaratmaq, ikidən dördə qədər qovşaq (biz yalnız serverlər alırıq).
  3. Xarici yaddaş sistemləri ilə işləmək bacarığı.
  4. Konteynerlər və Kubernetlər üçün dəstək.
  5. Əlçatanlıq zonalarının yaradılması.
  6. Daxili funksionallıq qənaətbəxş deyilsə, VMware SRM ilə inteqrasiya.

Memarlıq əsas rəqiblərinin həllərindən çox da fərqlənmir, onlar velosiped yaratmayıblar. Hamısı VMware və ya Hyper-V virtualizasiya platformasında işləyir. Aparat xüsusi Cisco UCS serverlərində yerləşdirilir. İlkin quraşdırmanın nisbi mürəkkəbliyinə, çoxlu düymələrə, qeyri-trivial şablonlar və asılılıqlar sisteminə görə platformaya nifrət edənlər var, lakin Zen-i öyrənənlər də var, ideyadan ilhamlanır və artıq istəmirlər. digər serverlərlə işləmək.

VMware üçün həlli nəzərdən keçirəcəyik, çünki həll əvvəlcə onun üçün yaradılmışdır və daha çox funksionallığa malikdir; Rəqiblərlə ayaqlaşmaq və bazar gözləntilərini qarşılamaq üçün Hyper-V əlavə edildi.

Disklərlə dolu bir çox server var. Məlumatların saxlanması üçün disklər var (SSD və ya HDD - zövqünüzə və ehtiyaclarınıza görə), keşləmə üçün bir SSD disk var. Məlumat anbarına məlumat yazarkən məlumat keşləmə qatında saxlanılır (xidmət VM-nin xüsusi SSD diski və RAM). Paralel olaraq, klasterdəki qovşaqlara verilənlər bloku göndərilir (qovşaqların sayı klasterin təkrarlanma faktorundan asılıdır). Uğurlu qeyd haqqında bütün qovşaqlardan təsdiq edildikdən sonra qeydin təsdiqi hipervizora, sonra isə VM-ə göndərilir. Qeydə alınmış məlumatlar təkmilləşdirilir, sıxılır və arxa fonda saxlama disklərinə yazılır. Eyni zamanda, yaddaş disklərinə həmişə və ardıcıl olaraq böyük blok yazılır ki, bu da yaddaş disklərindəki yükü azaldır.

Təkmilləşdirmə və sıxılma həmişə aktivdir və söndürülə bilməz. Məlumat birbaşa yaddaş disklərindən və ya RAM keşindən oxunur. Hibrid konfiqurasiya istifadə edilərsə, oxunuşlar da SSD-də keşlənir.

Məlumat virtual maşının cari yeri ilə əlaqələndirilmir və qovşaqlar arasında bərabər paylanır. Bu yanaşma bütün diskləri və şəbəkə interfeyslərini bərabər şəkildə yükləməyə imkan verir. Aşkar bir çatışmazlıq var: biz oxuma gecikməsini mümkün qədər azalda bilmərik, çünki yerli məlumatların mövcudluğuna zəmanət yoxdur. Amma inanıram ki, alınan faydalarla müqayisədə bu, kiçik bir qurbandır. Üstəlik, şəbəkə gecikmələri elə dəyərlərə çatmışdır ki, onlar praktiki olaraq ümumi nəticəyə təsir etmir.

Hər bir saxlama qovşağında yaradılmış xüsusi xidmət VM Cisco HyperFlex Data Platform kontrolleri disk alt sisteminin bütün əməliyyat məntiqinə cavabdehdir. Xidmətimizdə VM konfiqurasiyasında səkkiz vCPU və 72 GB RAM ayrıldı, bu o qədər də az deyil. Nəzərinizə çatdırım ki, hostun özündə 28 fiziki nüvə və 512 GB RAM var.

Xidmət VM SAS nəzarət cihazını VM-ə yönləndirməklə birbaşa fiziki disklərə çıxış əldə edir. Hipervizorla əlaqə giriş/çıxış əməliyyatlarına müdaxilə edən IOVisor xüsusi modulu vasitəsilə və hipervizor API-yə əmrlər göndərməyə imkan verən agentdən istifadə etməklə baş verir. Agent HyperFlex snapshots və klonlarla işləməyə cavabdehdir.

Disk resursları hipervizora NFS və ya SMB paylaşımları kimi quraşdırılır (hipervizorun növündən asılı olaraq hansının harada olduğunu təxmin edin). Və başlıq altında, bu, böyüklər üçün tam hüquqlu saxlama sistemlərinin xüsusiyyətlərini əlavə etməyə imkan verən paylanmış fayl sistemidir: nazik həcm bölgüsü, sıxılma və təkmilləşdirmə, Redirect-on-Write texnologiyasından istifadə edərək snapshotlar, sinxron/asinxron replikasiya.

Xidmət VM HyperFlex altsisteminin WEB idarəetmə interfeysinə çıxışı təmin edir. vCenter ilə inteqrasiya var və gündəlik tapşırıqların əksəriyyəti ondan yerinə yetirilə bilər, lakin məlumat anbarları, məsələn, əgər siz artıq sürətli HTML5 interfeysinə keçmisinizsə və ya tam hüquqlu Flash müştəri istifadə etmisinizsə, ayrıca veb-kameradan kəsmək daha rahatdır. tam inteqrasiya ilə. Xidmətin veb-kamerasında siz sistemin performansını və ətraflı vəziyyətini görə bilərsiniz.

Əlləri olmayan admin = hiperkonvergensiya?

Klasterdə başqa bir qovşaq növü var - hesablama qovşaqları. Bunlar daxili diskləri olmayan rack və ya blade serverlər ola bilər. Bu serverlər verilənləri diskləri olan serverlərdə saxlanılan VM-ləri işlədə bilər. Məlumat əldə etmək baxımından qovşaqların növləri arasında heç bir fərq yoxdur, çünki arxitektura verilənlərin fiziki yerindən abstraksiyanı nəzərdə tutur. Hesablama qovşaqlarının saxlama qovşaqlarına maksimum nisbəti 2:1-dir.

Hesablama qovşaqlarından istifadə klaster resurslarını miqyaslandırarkən çevikliyi artırır: yalnız CPU/RAM lazımdırsa, disklərlə əlavə qovşaqlar almağa ehtiyacımız yoxdur. Bundan əlavə, biz bir bıçaq qəfəsi əlavə edə və serverlərin rack yerləşdirilməsinə qənaət edə bilərik.

Nəticədə, aşağıdakı xüsusiyyətlərə malik hiperkonverged platformamız var:

  • Bir klasterdə 64-ə qədər qovşaq (32 saxlama qovşağına qədər).
  • Klasterdəki qovşaqların minimum sayı üçdür (Edge klaster üçün iki).
  • Verilənlərin artıqlığı mexanizmi: 2 və 3-cü təkrarlama faktoru ilə yansıma.
  • Metro klasteri.
  • Başqa HyperFlex klasterinə asinxron VM replikasiyası.
  • VM-lərin uzaq məlumat mərkəzinə keçidinin təşkili.
  • Redirect-on-Write texnologiyasından istifadə edərək yerli görüntülər.
  • Təkrarlanma faktoru 1-də və təkmilləşdirmə olmadan 3 PB-ə qədər faydalı sahə. Biz 2-ci təkrarlama faktorunu nəzərə almırıq, çünki bu, ciddi satış üçün seçim deyil.

Başqa bir böyük artı idarəetmə və yerləşdirmə asanlığıdır. UCS serverlərinin qurulmasının bütün mürəkkəblikləri Cisco mühəndisləri tərəfindən hazırlanmış ixtisaslaşmış VM tərəfindən həll edilir.

Test dəzgahının konfiqurasiyası:

  • İdarəetmə klasteri və şəbəkə komponentləri kimi 2 x Cisco UCS Fabric Interconnect 6248UP (Ethernet 48G/FC 10G rejimində işləyən 16 port).
  • Dörd Cisco UCS HXAF240 M4 serveri.

Server xüsusiyyətləri:

CPU

2 x Intel® Xeon® E5-2690 v4

RAM

16 x 32GB DDR4-2400-MHz RDIMM/PC4-19200/ikili dərəcə/x4/1.2v

şəbəkə

UCSC-MLOM-CSC-02 (VIC 1227). 2 10G Ethernet portu

Saxlama HBA

Cisco 12G Modul SAS Nəzarətçidən keçir

Saxlama Diskləri

1 x SSD Intel S3520 120 GB, 1 x SSD Samsung MZ-IES800D, 10 x SSD Samsung PM863a 960 GB

Daha çox konfiqurasiya variantlarıSeçilmiş avadanlıqdan əlavə, hazırda aşağıdakı seçimlər mövcuddur:

  • HXAF240c M5.
  • Intel Silver 4110-dan Intel Platinum I8260Y-ə qədər bir və ya iki CPU. İkinci nəsil mövcuddur.
  • 24 yaddaş yuvası, 16 GB RDIMM 2600-dən 128 GB LRDIMM 2933-ə qədər lentlər.
  • 6-dan 23-ə qədər məlumat diski, bir keş diski, bir sistem diski və bir yükləmə diski.

Tutumlu Sürücülər

  • HX-SD960G61X-EV 960GB 2.5 düym Müəssisə dəyəri 6G SATA SSD (1X dözümlülük) SAS 960 GB.
  • HX-SD38T61X-EV 3.8TB 2.5 düym Müəssisə Dəyəri 6G SATA SSD (1X dözümlülük) SAS 3.8 TB.
  • Keşləmə Diskləri
  • HX-NVMEXPB-I375 375GB 2.5 düymlük Intel Optane Diski, Extreme Perf & Endurance.
  • HX-NVMEHW-H1600* 1.6TB 2.5 düym Ent. Perf. NVMe SSD (3X dözümlülük) NVMe 1.6 TB.
  • HX-SD400G12TX-EP 400GB 2.5 düym Ent. Perf. 12G SAS SSD (10X dözümlülük) SAS 400 GB.
  • HX-SD800GBENK9** 800GB 2.5 düym Ent. Perf. 12G SAS SED SSD (10X dözümlülük) SAS 800 GB.
  • HX-SD16T123X-EP 1.6TB 2.5 düymlük Müəssisə performansı 12G SAS SSD (3X dözümlülük).

Sistem/Log Sürücüləri

  • HX-SD240GM1X-EV 240GB 2.5 düym Enterprise Value 6G SATA SSD (Təkmilləşdirmə tələb olunur).

Yükləmə Diskləri

  • HX-M2-240GB 240GB SATA M.2 SSD SATA 240 GB.

40G, 25G və ya 10G Ethernet portları vasitəsilə şəbəkəyə qoşulun.

FI HX-FI-6332 (40G), HX-FI-6332-16UP (40G), HX-FI-6454 (40G/100G) ola bilər.

Testin özü

Disk alt sistemini yoxlamaq üçün HCIBench 2.2.1-dən istifadə etdim. Bu, birdən çox virtual maşından yük yaratmağı avtomatlaşdırmağa imkan verən pulsuz bir yardım proqramıdır. Yükün özü adi fio tərəfindən yaradılır.

Bizim klasterimiz dörd qovşaqdan ibarətdir, replikasiya faktoru 3, bütün disklər Flash-dır.

Sınaq üçün dörd məlumat anbarı və səkkiz virtual maşın yaratdım. Yazma testləri üçün keş diskinin dolu olmadığı güman edilir.

Test nəticələri aşağıdakı kimidir:

100% Oxu 100% Təsadüfi

0% Oxu 100% Təsadüfi

Blok/növbənin dərinliyi

128

256

512

1024

2048

128

256

512

1024

2048

4K

0,59 ms 213804 IOPS

0,84 ms 303540 IOPS

1,36ms 374348 IOPS

2.47 ms 414116 IOPS

4,86ms 420180 IOPS

2,22 ms 57408 IOPS

3,09 ms 82744 IOPS

5,02 ms 101824 IPOS

8,75 ms 116912 IOPS

17,2 ms 118592 IOPS

8K

0,67 ms 188416 IOPS

0,93 ms 273280 IOPS

1,7 ms 299932 IOPS

2,72 ms 376,484 IOPS

5,47 ms 373,176 IOPS

3,1 ms 41148 IOPS

4,7 ms 54396 IOPS

7,09 ms 72192 IOPS

12,77 ms 80132 IOPS

16K

0,77 ms 164116 IOPS

1,12 ms 228328 IOPS

1,9 ms 268140 IOPS

3,96 ms 258480 IOPS

3,8 ms 33640 IOPS

6,97 ms 36696 IOPS

11,35 ms 45060 IOPS

32K

1,07 ms 119292 IOPS

1,79 ms 142888 IOPS

3,56 ms 143760 IOPS

7,17 ms 17810 IOPS

11,96 ms 21396 IOPS

64K

1,84 ms 69440 IOPS

3,6 ms 71008 IOPS

7,26 ms 70404 IOPS

11,37 ms 11248 IOPS

Qalın dəyərləri göstərir, bundan sonra məhsuldarlıqda artım yoxdur, bəzən hətta deqradasiya görünür. Bu, şəbəkənin/nəzarətçilərin/disklərin performansı ilə məhdudlaşmağımızla bağlıdır.

  • Ardıcıl oxu 4432 MB/s.
  • Ardıcıl yazma 804 MB/s.
  • Bir nəzarətçi uğursuz olarsa (virtual maşın və ya hostun uğursuzluğu), performans azalması ikiqat olur.
  • Saxlama diski uğursuz olarsa, azalma 1/3-dir. Diskin yenidən qurulması hər bir nəzarətçinin resurslarının 5%-ni alır.

Kiçik bir blokda biz nəzarətçinin (virtual maşın) performansı ilə məhdudlaşırıq, onun CPU-su 100% yüklənir və blok artdıqda, biz port bant genişliyi ilə məhdudlaşırıq. AllFlash sisteminin potensialını açmaq üçün 10 Gbit/s kifayət deyil. Təəssüf ki, təqdim olunmuş demo stendinin parametrləri 40 Gbit/s-də işləməyi sınaqdan keçirməyə imkan vermir.

Testlərdən və arxitekturanın öyrənilməsindən aldığım təəssüratlara görə, məlumatları bütün hostlar arasında yerləşdirən alqoritm sayəsində miqyaslana bilən, proqnozlaşdırıla bilən performans əldə edirik, lakin bu da oxuyarkən bir məhdudiyyətdir, çünki yerli disklərdən daha çox sıxışdırmaq mümkün olardı, burada daha məhsuldar şəbəkəyə qənaət edə bilər, məsələn, 40 Gbit/s-də FI mövcuddur.

Həmçinin, keşləmə və təkmilləşdirmə üçün bir disk məhdudiyyət ola bilər; əslində, bu test yatağında biz dörd SSD diskinə yaza bilərik. Keşləmə sürücülərinin sayını artırmaq və fərqi görmək əla olardı.

Real istifadə

Məlumat mərkəzinin ehtiyat nüsxəsini təşkil etmək üçün iki yanaşmadan istifadə edə bilərsiniz (uzaq bir saytda ehtiyat nüsxəsini yerləşdirməyi düşünmürük):

  1. Aktiv-Passiv. Bütün proqramlar əsas məlumat mərkəzində yerləşdirilir. Replikasiya sinxron və ya asinxrondur. Əsas məlumat mərkəzi uğursuz olarsa, ehtiyat nüsxəsini aktivləşdirməliyik. Bu, əl ilə/skriptlər/orkestr proqramları ilə edilə bilər. Burada biz replikasiya tezliyinə mütənasib bir RPO alacağıq və RTO inzibatçının reaksiyasından və bacarıqlarından və kommutasiya planının işlənib hazırlanması/bağlanması keyfiyyətindən asılıdır.
  2. Aktiv-aktiv. Bu halda, yalnız sinxron təkrarlama var; məlumat mərkəzlərinin mövcudluğu ciddi şəkildə üçüncü saytda yerləşən kvorum/arbitr tərəfindən müəyyən edilir. RPO = 0 və RTO 0-a çata bilər (tətbiq imkan verirsə) və ya virtualizasiya klasterindəki qovşağın işləmə müddətinə bərabərdir. Virtuallaşdırma səviyyəsində, Aktiv-Aktiv yaddaş tələb edən uzanmış (Metro) klaster yaradılır.

Adətən biz görürük ki, müştərilər artıq əsas məlumat mərkəzində klassik saxlama sistemi olan bir arxitektura tətbiq ediblər, ona görə də biz təkrarlama üçün başqasını dizayn edirik. Qeyd etdiyim kimi, Cisco HyperFlex asinxron replikasiya və uzanmış virtualizasiya klasterinin yaradılmasını təklif edir. Eyni zamanda, bizə iki saxlama sistemində bahalı replikasiya funksiyaları və Aktiv-Aktiv məlumat çıxışı ilə Midrange və daha yüksək səviyyəli xüsusi saxlama sisteminə ehtiyacımız yoxdur.

Ssenari 1: Bizim əsas və ehtiyat məlumat mərkəzlərimiz, VMware vSphere-də virtuallaşdırma platformamız var. Bütün məhsuldar sistemlər əsas məlumat mərkəzində yerləşir və virtual maşınların replikasiyası hipervizor səviyyəsində həyata keçirilir, bu, VM-lərin ehtiyat məlumat mərkəzində açıq saxlanmasının qarşısını alacaq. Daxili alətlərdən istifadə edərək verilənlər bazalarını və xüsusi proqramları təkrarlayırıq və VM-ləri açıq saxlayırıq. Əsas məlumat mərkəzi uğursuz olarsa, biz ehtiyat məlumat mərkəzində sistemləri işə salırıq. İnanırıq ki, 100-ə yaxın virtual maşınımız var. İlkin məlumat mərkəzi işlək vəziyyətdə olsa da, gözləmə rejimində olan məlumat mərkəzi sınaq mühitlərini və əsas məlumat mərkəzi keçdikdə bağlana bilən digər sistemləri işlədə bilər. İkitərəfli replikasiyadan istifadə etməyimiz də mümkündür. Aparat baxımından heç nə dəyişməyəcək.

Klassik arxitekturaya gəldikdə, biz hər bir məlumat mərkəzində FibreChannel vasitəsilə giriş, səviyyə, təkmilləşdirmə və sıxılma (lakin onlayn deyil), hər sayt üçün 8 server, 2 FibreChannel açarı və 10G Ethernet vasitəsilə hibrid yaddaş sistemi quraşdıracağıq. Klassik arxitekturada replikasiya və keçidin idarə edilməsi üçün biz VMware alətlərindən (Replikasiya + SRM) və ya üçüncü tərəf alətlərindən istifadə edə bilərik ki, bu da bir az daha ucuz və bəzən daha rahat olacaq.

Şəkil diaqramı göstərir.

Əlləri olmayan admin = hiperkonvergensiya?

Cisco HyperFlex istifadə edərkən aşağıdakı arxitektura əldə edilir:

Əlləri olmayan admin = hiperkonvergensiya?

HyperFlex üçün mən böyük CPU/RAM resurslarına malik serverlərdən istifadə etdim, çünki... Resursların bəziləri HyperFlex nəzarətçi VM-ə gedəcək; CPU və yaddaş baxımından mən hətta HyperFlex konfiqurasiyasını Cisco ilə birlikdə oynamamaq və qalan VM-lər üçün resurslara zəmanət verməmək üçün bir az yenidən konfiqurasiya etdim. Lakin biz FibreChannel açarlarından imtina edə bilərik və hər bir server üçün Ethernet portlarına ehtiyacımız olmayacaq; yerli trafik FI daxilində dəyişdirilir.

Nəticə hər bir məlumat mərkəzi üçün aşağıdakı konfiqurasiya oldu:

Serverlər

8 x 1U Server (384 GB RAM, 2 x Intel Gold 6132, FC HBA)

8 x HX240C-M5L (512 GB RAM, 2 x Intel Gold 6150, 3,2 GB SSD, 10 x 6 TB NL-SAS)

saxlama

FC Front-End ilə hibrid yaddaş sistemi (20TB SSD, 130TB NL-SAS)

-

LAN

2 x Ethernet açarı 10G 12 port

-

SAN

2 x FC keçid 32/16Gb 24 port

2 x Cisco UCS FI 6332

Lisenziyalar

VMware Ent Plus

VM keçidinin təkrarlanması və/yaxud orkestrasiyası

VMware Ent Plus

Hyperflex üçün replikasiya proqram təminatı lisenziyalarını təqdim etməmişəm, çünki bu, bizim üçün qutudan kənarda mövcuddur.

Klassik memarlıq üçün yüksək keyfiyyətli və ucuz istehsalçı kimi özünü təsdiq edən bir satıcı seçdim. Hər iki variant üçün konkret həll üçün standart endirim tətbiq etdim və nəticədə real qiymətləri aldım.

Cisco HyperFlex həlli 13% ucuz oldu.

Ssenari 2: iki aktiv məlumat mərkəzinin yaradılması. Bu ssenaridə biz VMware-də uzadılmış klaster dizayn edirik.

Klassik arxitektura virtuallaşdırma serverlərindən, SAN (FC protokolu) və onların arasında uzanan həcmdə oxuya və yaza bilən iki yaddaş sistemindən ibarətdir. Hər bir saxlama sistemində biz saxlama üçün faydalı tutum qoyuruq.

Əlləri olmayan admin = hiperkonvergensiya?

HyperFlex-də biz sadəcə olaraq hər iki saytda eyni sayda qovşaqları olan Stretch Cluster yaradırıq. Bu halda 2+2 təkrarlama əmsalı istifadə olunur.

Əlləri olmayan admin = hiperkonvergensiya?

Nəticə aşağıdakı konfiqurasiyadır:

klassik memarlıq

HyperFlex

Serverlər

16 x 1U Server (384 GB RAM, 2 x Intel Gold 6132, FC HBA, 2 x 10G NIC)

16 x HX240C-M5L (512 GB RAM, 2 x Intel Gold 6132, 1,6 TB NVMe, 12 x 3,8 TB SSD, VIC 1387)

saxlama

2 x AllFlash yaddaş sistemi (150 TB SSD)

-

LAN

4 x Ethernet açarı 10G 24 port

-

SAN

4 x FC keçid 32/16Gb 24 port

4 x Cisco UCS FI 6332

Lisenziyalar

VMware Ent Plus

VMware Ent Plus

Bütün hesablamalarda mən şəbəkə infrastrukturunu, məlumat mərkəzinin xərclərini və s. nəzərə almadım: onlar klassik arxitektura və HyperFlex həlli üçün eyni olacaq.

Qiymət baxımından HyperFlex 5% daha baha oldu. Burada qeyd etmək lazımdır ki, CPU/RAM resursları baxımından Cisco üçün əyriliyim var idi, çünki konfiqurasiyada yaddaş nəzarətçi kanallarını bərabər doldurdum. Qiymət bir qədər yüksəkdir, lakin böyüklük sırasına görə deyil, bu, hiperkonvergensiyanın mütləq "zənginlər üçün oyuncaq" olmadığını, lakin məlumat mərkəzinin qurulmasına standart yanaşma ilə rəqabət apara biləcəyini açıq şəkildə göstərir. Bu, artıq Cisco UCS serverlərinə və onlar üçün müvafiq infrastruktura malik olanlar üçün də maraqlı ola bilər.

Üstünlüklər arasında SAN və saxlama sistemlərini idarə etmək üçün xərclərin olmaması, onlayn sıxılma və təkmilləşdirmə, dəstək üçün vahid giriş nöqtəsi (virtuallaşdırma, serverlər, onlar həm də saxlama sistemləridir), yerə qənaət (lakin bütün ssenarilərdə deyil), əməliyyatın sadələşdirilməsi.

Dəstəyə gəlincə, burada onu bir satıcıdan əldə edirsiniz - Cisco. Cisco UCS serverləri ilə təcrübəmə əsasən, bunu bəyənirəm; onu HyperFlex-də açmalı deyildim, hər şey eyni işləyirdi. Mühəndislər dərhal cavab verir və yalnız tipik problemləri deyil, həm də mürəkkəb kənar vəziyyətləri həll edə bilər. Hərdən onlara suallarla müraciət edirəm: “Bunu etmək olarmı, onu sındırın?” və ya “Mən burada bir şey konfiqurasiya etdim və işləmək istəmir. Kömək edin!" - səbirlə orada lazımi bələdçi tapacaq və düzgün hərəkətləri göstərəcəklər, cavab verməyəcəklər: "Biz yalnız aparat problemlərini həll edirik."

References

Mənbə: www.habr.com

Добавить комментарий