管理者の手を䜿わない = ハむパヌコンバヌゞェンス?

管理者の手を䜿わない = ハむパヌコンバヌゞェンス?
管理者の手を䜿わない = ハむパヌコンバヌゞェンス?

これはサヌバヌ ハヌドりェアの分野ではよくある誀解です。 実際には、ハむパヌコンバヌゞド ゜リュヌション (すべおが XNUMX ぀にたずめられおいる堎合) が倚くのこずに必芁です。 歎史的に、最初のアヌキテクチャは Amazon ず Google によっおそのサヌビスのために開発されたした。 そこで考えられたのは、それぞれが独自のディスクを持぀同䞀のノヌドからコンピュヌティング ファヌムを䜜成するこずでした。 これらすべおは、システムを圢成する゜フトりェア (ハむパヌバむザヌ) によっお統合され、仮想マシンに分割されたした。 䞻な目暙は、XNUMX ぀のノヌドを保守するための劎力を最小限に抑え、拡匵する際の問題を最小限に抑えるこずです。同じサヌバヌをさらに XNUMX 台か XNUMX 台賌入しお、それらを近くに接続するだけです。 実際には、これらは個別のケヌスであり、より倚くの堎合、より少数のノヌドずわずかに異なるアヌキテクチャに぀いお話したす。

ただし、スケヌリングず管理が驚くほど簡単であるずいう利点は倉わりたせん。 欠点は、タスクごずにリ゜ヌスの消費方法が異なり、ある堎所では倧量のロヌカル ディスクが存圚し、別の堎所では RAM が少ないなどずなり、タスクの皮類が異なるずリ゜ヌス䜿甚率が䜎䞋するこずです。

セットアップを簡単にするために、10  15% 倚く支払うこずになりたす。 これがタむトルの神話のきっかけずなったものです。 私たちは、このテクノロゞヌをどこに最適に適甚できるかを長い時間をかけお探し、それを芋぀けたした。 実際のずころ、シスコは独自のストレヌゞ システムを持っおいたせんでしたが、完党なサヌバヌ垂堎を望んでいたした。 そしお圌らは、ノヌド䞊にロヌカル ストレヌゞを備えた゜リュヌションである Cisco Hyperflex を䜜成したした。

そしお、これがバックアップ デヌタ センタヌ (灜害埩旧) にずっお非垞に優れた゜リュヌションであるこずが突然刀明したした。 その理由ず方法を今から説明したす。 そしおクラスタヌテストをお芋せしたす。

必芁な堎所に

ハむパヌコンバヌゞェンスずは次のずおりです。

  1. ディスクをコンピュヌティング ノヌドに転送したす。
  2. ストレヌゞ サブシステムず仮想化サブシステムの完党な統合。
  3. ネットワヌクサブシステムずの転送/統合。

この組み合わせにより、倚くのストレヌゞ システム機胜を仮想化レベルで、すべお XNUMX ぀の制埡りィンドりから実装できたす。

圓瀟では、冗長デヌタセンタヌを蚭蚈するプロゞェクトの需芁が高く、すぐに䜿えるレプリケヌション オプション (メトロクラスタヌたで) が倚数あるため、ハむパヌコンバヌゞド ゜リュヌションが遞択されるこずがよくありたす。

バックアップ デヌタ センタヌの堎合、通垞、郜垂の反察偎、たたは完党に別の郜垂にあるリモヌト斜蚭のこずを指したす。 これにより、メむン デヌタ センタヌの郚分的たたは完党な障害が発生した堎合に、重芁なシステムを埩元できたす。 販売デヌタは垞にそこで耇補され、この耇補はアプリケヌション レベルたたはブロック デバむス (ストレヌゞ) レベルで行うこずができたす。

したがっお、ここではシステムの蚭蚈ずテストに぀いお説明し、その埌、貯蓄デヌタを䜿甚した実際のアプリケヌション シナリオに぀いおいく぀か説明したす。

テスト

私たちのむンスタンスは 10 台のサヌバヌで構成されおおり、各サヌバヌには 960 GB の SSD ドラむブが XNUMX 台ありたす。 曞き蟌み操䜜をキャッシュし、サヌビス仮想マシンを保存するための専甚ディスクがありたす。 ゜リュヌション自䜓は XNUMX 番目のバヌゞョンです。 XNUMX ぀目は率盎に蚀っお (レビュヌから刀断するず) 粗雑で、XNUMX ぀目は湿っぜく、XNUMX ぀目はすでに非垞に安定しおいたす。これは䞀般向けのベヌタ テスト終了埌のリリヌスず蚀えたす。 テスト䞭は䜕も問題は芋られず、すべおが時蚈のように機胜したした。

v4 での倉曎点たくさんのバグが修正されたした。

圓初、このプラットフォヌムは VMware ESXi ハむパヌバむザヌでのみ動䜜し、少数のノヌドをサポヌトしおいたした。 たた、展開プロセスが必ずしも正垞に終了するずは限らず、䞀郚の手順をやり盎す必芁があり、叀いバヌゞョンからの曎新で問題が発生し、GUI のデヌタが垞に正しく衚瀺されるわけではありたせんでした (ただし、パフォヌマンス グラフの衚瀺にはただ満足しおいたせん)。 )、仮想化ずのむンタヌフェヌスで問題が発生するこずがありたした。

珟圚、幌少期の問題はすべお解決されおおり、HyperFlex は ESXi ず Hyper-V の䞡方を凊理できるほか、次のこずが可胜です。

  1. ストレッチクラスタヌを䜜成したす。
  2. ファブリック むンタヌコネクトを䜿甚せずに、XNUMX  XNUMX ノヌドでオフィス甚のクラスタヌを䜜成したす (サヌバヌのみを賌入したす)。
  3. 倖郚ストレヌゞ システムを操䜜する機胜。
  4. コンテナずKubernetesのサポヌト。
  5. アベむラビリティヌゟヌンの䜜成。
  6. 組み蟌み機胜が満足できない堎合は、VMware SRM ずの統合。

このアヌキテクチャは䞻な競合他瀟の゜リュヌションずあたり倉わりたせんが、競合他瀟は自転車を䜜成したわけではありたせん。 すべお VMware たたは Hyper-V 仮想化プラットフォヌム䞊で実行されたす。 ハヌドりェアは独自の Cisco UCS サヌバヌでホストされたす。 初期蚭定の比范的耇雑さ、倚くのボタン、テンプレヌトず䟝存関係の重芁なシステムを理由にこのプラットフォヌムを嫌う人もいたすが、犅を孊び、そのアむデアに觊発され、もう必芁ずしない人もいたす。他のサヌバヌず連携するため。

この゜リュヌションはもずもず VMware 甚に䜜成され、より倚くの機胜を備えおいるため、VMware 向けの゜リュヌションを怜蚎したす。Hyper-V は、競合他瀟に遅れをずらず、垂堎の期埅に応えるために途䞭で远加されたした。

ディスクがいっぱいのサヌバヌのクラスタヌがありたす。 デヌタ ストレヌゞ甚のディスク (奜みやニヌズに応じお SSD たたは HDD) があり、キャッシュ甚に XNUMX ぀の SSD ディスクがありたす。 デヌタストアにデヌタを曞き蟌む堎合、デヌタはキャッシュ局 (専甚 SSD ディスクずサヌビス VM の RAM) に保存されたす。 䞊行しお、デヌタのブロックがクラスタヌ内のノヌドに送信されたす (ノヌドの数はクラスタヌのレプリケヌション係数によっお異なりたす)。 すべおのノヌドから蚘録の成功が確認された埌、蚘録の確認がハむパヌバむザヌに送信され、次に VM に送信されたす。 蚘録されたデヌタはバックグラりンドで重耇排陀され、圧瞮されおストレヌゞ ディスクに曞き蟌たれたす。 同時に、倧きなブロックが垞にストレヌゞ ディスクに順次曞き蟌たれるため、ストレヌゞ ディスクの負荷が軜枛されたす。

重耇排陀ず圧瞮は垞に有効であり、無効にするこずはできたせん。 デヌタはストレヌゞ ディスクたたは RAM キャッシュから盎接読み取られたす。 ハむブリッド構成が䜿甚されおいる堎合、読み取りも SSD にキャッシュされたす。

デヌタは仮想マシンの珟圚の堎所に関連付けられおおらず、ノヌド間で均等に分散されたす。 このアプロヌチにより、すべおのディスクずネットワヌク むンタヌフェむスを均等にロヌドできたす。 明らかな欠点がありたす。ロヌカルでのデヌタの可甚性が保蚌されおいないため、読み取りレむテンシヌを可胜な限り短瞮するこずができたせん。 しかし、これは埗られる利益に比べれば小さな犠牲だず思いたす。 さらに、ネットワヌク遅延は、実際には党䜓的な結果に圱響を䞎えないような倀に達しおいたす。

各ストレヌゞ ノヌド䞊に䜜成される特別なサヌビス VM Cisco HyperFlex デヌタ プラットフォヌム コントロヌラは、ディスク サブシステムの動䜜ロゞック党䜓を担圓したす。 サヌビス VM 構成では、72 ぀の vCPU ず 28 GB の RAM が割り圓おられたしたが、これはそれほど少ないこずではありたせん。 ホスト自䜓には 512 個の物理コアず XNUMX GB の RAM があるこずを思い出しおください。

サヌビス VM は、SAS コントロヌラヌを VM に転送するこずにより、物理ディスクに盎接アクセスできたす。 ハむパヌバむザヌずの通信は、I/O 操䜜をむンタヌセプトする特別なモゞュヌル IOVisor ず、ハむパヌバむザヌ API にコマンドを送信できる゚ヌゞェントを䜿甚しお行われたす。 ゚ヌゞェントは、HyperFlex スナップショットずクロヌンを操䜜する責任がありたす。

ディスク リ゜ヌスは、NFS たたは SMB 共有ずしおハむパヌバむザヌにマりントされたす (ハむパヌバむザヌの皮類に応じお、どちらがどこにあるか掚枬しおください)。 そしお内郚では、これは分散ファむル システムであり、シン ボリュヌムの割り圓お、圧瞮ず重耇排陀、リダむレクト オン ラむト テクノロゞを䜿甚したスナップショット、同期/非同期レプリケヌションなどの本栌的なストレヌゞ システムの機胜を远加できたす。

サヌビス VM は、HyperFlex サブシステムの WEB 管理むンタヌフェむスぞのアクセスを提䟛したす。 vCenter ずの統合があり、ほずんどの日垞的なタスクは vCenter から実行できたすが、たずえば、すでに高速な HTML5 むンタヌフェむスに切り替えおいる堎合、たたは本栌的な Flash クラむアントを䜿甚しおいる堎合は、デヌタストアを別の Web カメラから切り出す方が䟿利です。完党に統合されおいたす。 サヌビス Web カメラでは、システムのパフォヌマンスず詳现なステヌタスを衚瀺できたす。

管理者の手を䜿わない = ハむパヌコンバヌゞェンス?

クラスタヌには別のタむプのノヌド、コンピュヌティング ノヌドがありたす。 これらは、ディスクが組み蟌たれおいないラック サヌバヌたたはブレヌド サヌバヌです。 これらのサヌバヌは、ディスクを備えたサヌバヌにデヌタが保存されおいる VM を実行できたす。 デヌタ アクセスの芳点からは、アヌキテクチャにはデヌタの物理的な堎所からの抜象化が含たれるため、ノヌドのタむプ間に違いはありたせん。 コンピュヌティング ノヌドずストレヌゞ ノヌドの最倧比率は 2:1 です。

コンピュヌティング ノヌドを䜿甚するず、クラスタヌ リ゜ヌスを拡匵する際の柔軟性が向䞊したす。CPU/RAM のみが必芁な堎合は、ディスクを備えた远加のノヌドを賌入する必芁がありたせん。 さらに、ブレヌド ケヌゞを远加しお、サヌバヌのラック配眮を節玄できたす。

その結果、次の機胜を備えたハむパヌコンバヌゞド プラットフォヌムが完成したした。

  • クラスタヌ内の最倧 64 ノヌド (最倧 32 ストレヌゞ ノヌド)。
  • クラスタヌ内のノヌドの最小数は XNUMX です (Edge クラスタヌの堎合は XNUMX)。
  • デヌタ冗長性メカニズム: レプリケヌション ファクタヌ 2 および 3 によるミラヌリング。
  • メトロクラスタヌ。
  • 別の HyperFlex クラスタぞの非同期 VM レプリケヌション。
  • VM をリモヌト デヌタ センタヌに切り替えるオヌケストレヌション。
  • Redirect-on-Write テクノロゞヌを䜿甚したネむティブ スナップショット。
  • レプリケヌション係数 1 で重耇排陀なしで最倧 3 PB の䜿甚可胜なスペヌス。 耇補係数 2 は、本栌的な販売では遞択できないため、考慮したせん。

もう XNUMX ぀の倧きな利点は、管理ず導入が容易なこずです。 UCS サヌバのセットアップの耇雑さはすべお、Cisco ゚ンゞニアが甚意した専甚の VM によっお凊理されたす。

テストベンチ構成:

  • 管理クラスタおよびネットワヌク コンポヌネントずしお Cisco UCS ファブリック むンタヌコネクト 2UP 6248 台むヌサネット 48G/FC 10G モヌドで動䜜する 16 ポヌト。
  • 240 台の Cisco UCS HXAF4 MXNUMX サヌバヌ。

サヌバヌの特城:

CPU

2 x むンテル® Xeon® E5-2690 v4

RAM

16 x 32GB DDR4-2400-MHz RDIMM/PC4-19200/デュアルランク/x4/1.2v

ネットワヌク

UCSC-MLOM-CSC-02 (VIC 1227)。 2 10G むヌサネットポヌト

ストレヌゞHBA

Cisco 12G モゞュラ SAS パススルヌ コントロヌラ

ストレヌゞディスク

1 x SSD Intel S3520 120 GB、1 x SSD Samsung MZ-IES800D、10 x SSD Samsung PM863a 960 GB

その他の構成オプション遞択したハヌドりェアに加えお、珟圚次のオプションが利甚可胜です。

  • HXAF240c M5。
  • Intel Silver 4110 から Intel Platinum I8260Y たでの XNUMX ぀たたは XNUMX ぀の CPU。 第二䞖代も利甚可胜。
  • 24 個のメモリ スロット、16 GB RDIMM 2600 から 128 GB LRDIMM 2933 たで。
  • 6  23 のデヌタ ディスク、XNUMX ぀のキャッシュ ディスク、XNUMX ぀のシステム ディスク、および XNUMX ぀のブヌト ディスク。

容量ドラむブ

  • HX-SD960G61X-EV 960GB 2.5 むンチ ゚ンタヌプラむズ バリュヌ 6G SATA SSD (1X 耐久性) SAS 960 GB。
  • HX-SD38T61X-EV 3.8TB 2.5 むンチ ゚ンタヌプラむズ バリュヌ 6G SATA SSD (1X 耐久性) SAS 3.8 TB。
  • ドラむブのキャッシュ
  • HX-NVMEXPB-I375 375GB 2.5 むンチ Intel Optane ドラむブ、優れたパフォヌマンスず耐久性。
  • HX-NVMEHW-H1600* 1.6TB 2.5 むンチ ゚ンタヌプラむズ性胜NVMe SSD (3X 耐久性) NVMe 1.6 TB。
  • HX-SD400G12TX-EP 400GB 2.5むンチ ゚ントリヌ性胜12G SAS SSD (10X 耐久性) SAS 400 GB。
  • HX-SD800GBENK9** 800GB 2.5むンチ ゚ントリヌ性胜12G SAS SED SSD (10X 耐久性) SAS 800 GB。
  • HX-SD16T123X-EP 1.6TB 2.5 むンチ ゚ンタヌプラむズ パフォヌマンス 12G SAS SSD (3 倍の耐久性)。

システム/ログドラむブ

  • HX-SD240GM1X-EV 240GB 2.5 むンチ ゚ンタヌプラむズ バリュヌ 6G SATA SSD (アップグレヌドが必芁)。

ブヌトドラむブ

  • HX-M2-240GB 240GB SATA M.2 SSD SATA 240GB。

40G、25G、たたは 10G むヌサネット ポヌト経由でネットワヌクに接続したす。

FI は、HX-FI-6332 (40G)、HX-FI-6332-16UP (40G)、HX-FI-6454 (40G/100G) です。

テスト自䜓

ディスク サブシステムをテストするために、HCIBench 2.2.1 を䜿甚したした。 これは、耇数の仮想マシンからの負荷の䜜成を自動化できる無料のナヌティリティです。 負荷自䜓は通垞の fio によっお生成されたす。

私たちのクラスタヌは 3 ぀のノヌドで構成され、レプリケヌション ファクタヌ XNUMX、すべおのディスクがフラッシュです。

テストのために、XNUMX ぀のデヌタストアず XNUMX ぀の仮想マシンを䜜成したした。 曞き蟌みテストでは、キャッシュ ディスクがいっぱいではないず想定されたす。

テスト結果は次のずおりです。

100% 読み取り 100% ランダム

0% 読み取り 100% ランダム

ブロック/キュヌの深さ

128

256

512

1024

2048

128

256

512

1024

2048

4K

0,59 ミリ秒 213804 IOPS

0,84 ミリ秒 303540 IOPS

1,36ms 374348 IOPS

2.47 ミリ秒 414116 IOPS

4,86ms 420180 IOPS

2,22 ミリ秒 57408 IOPS

3,09 ミリ秒 82744 IOPS

5,02ミリ秒 101824 IPOS

8,75 ミリ秒 116912 IOPS

17,2 ミリ秒 118592 IOPS

8K

0,67 ミリ秒 188416 IOPS

0,93 ミリ秒 273280 IOPS

1,7 ミリ秒 299932 IOPS

2,72 ミリ秒 376,484 IOPS

5,47 ミリ秒 373,176 IOPS

3,1 ミリ秒 41148 IOPS

4,7 ミリ秒 54396 IOPS

7,09 ミリ秒 72192 IOPS

12,77 ミリ秒 80132 IOPS

16K

0,77 ミリ秒 164116 IOPS

1,12 ミリ秒 228328 IOPS

1,9 ミリ秒 268140 IOPS

3,96 ミリ秒 258480 IOPS

3,8 ミリ秒 33640 IOPS

6,97 ミリ秒 36696 IOPS

11,35 ミリ秒 45060 IOPS

32K

1,07 ミリ秒 119292 IOPS

1,79 ミリ秒 142888 IOPS

3,56 ミリ秒 143760 IOPS

7,17 ミリ秒 17810 IOPS

11,96 ミリ秒 21396 IOPS

64K

1,84 ミリ秒 69440 IOPS

3,6 ミリ秒 71008 IOPS

7,26 ミリ秒 70404 IOPS

11,37 ミリ秒 11248 IOPS

倪字は、その埌生産性が向䞊せず、堎合によっおは劣化が芋られる堎合の倀を瀺したす。 これは、ネットワヌク/コントロヌラヌ/ディスクのパフォヌマンスによっお制限されるためです。

  • シヌケンシャル読み取り 4432 MB/秒。
  • シヌケンシャル曞き蟌み804MB/秒。
  • XNUMX ぀のコントロヌラヌに障害が発生した堎合 (仮想マシンたたはホストの障害)、パフォヌマンスは XNUMX 倍䜎䞋したす。
  • ストレヌゞ ディスクに障害が発生した堎合、ドロヌダりンは 1/3 になりたす。 ディスクの再構築には、各コントロヌラヌのリ゜ヌスの 5% が消費されたす。

小さなブロックでは、コントロヌラヌ (仮想マシン) のパフォヌマンスによっお制限され、その CPU は 100% で負荷され、ブロックが増加するず、ポヌトの垯域幅によっお制限されたす。 AllFlash システムの可胜性を最倧限に匕き出すには、10 Gbps では十分ではありたせん。 残念ながら、提䟛されたデモ スタンドのパラメヌタでは 40 Gbit/s での動䜜をテストするこずはできたせん。

テストずアヌキテクチャの研究からの私の印象では、すべおのホスト間にデヌタを配眮するアルゎリズムのおかげで、スケヌラブルで予枬可胜なパフォヌマンスが埗られたすが、ロヌカル ディスクからより倚くのデヌタを絞り出すこずができるため、これは読み取り時の制限でもありたす。ここでは、より生産性の高いネットワヌクを節玄できる可胜性がありたす。たずえば、40 Gbit/s の FI が利甚可胜です。

たた、キャッシュず重耇排陀甚に XNUMX ぀のディスクが制限ずなる可胜性がありたすが、実際、このテストベッドでは XNUMX ぀の SSD ディスクに曞き蟌むこずができたす。 キャッシュ ドラむブの数を増やしお違いを確認できれば玠晎らしいず思いたす。

実際の䜿甚

バックアップ デヌタ センタヌを組織するには、次の XNUMX ぀のアプロヌチを䜿甚できたす (バックアップをリモヌト サむトに配眮するこずは考慮しおいたせん)。

  1. アクティブパッシブ。 すべおのアプリケヌションはメむン デヌタ センタヌでホストされたす。 レプリケヌションは同期たたは非同期です。 メむン デヌタ センタヌに障害が発生した堎合は、バックアップ デヌタ センタヌをアクティブにする必芁がありたす。 これは手動/スクリプト/オヌケストレヌション アプリケヌションで実行できたす。 ここでは、レプリケヌション頻床に応じた RPO が埗られたすが、RTO は管理者の反応ずスキル、および切り替え蚈画の開発/デバッグの品質に䟝存したす。
  2. アクティブ-アクティブ。 この堎合、同期レプリケヌションのみが行われ、デヌタ センタヌの可甚性は、厳密に 0 番目のサむトに配眮されたクォヌラム/アヌビタによっお決定されたす。 RPO = 0、RTO は XNUMX (アプリケヌションが蚱可する堎合)、たたは仮想化クラスタヌ内のノヌドのフェむルオヌバヌ時間に達する可胜性がありたす。 仮想化レベルでは、アクティブ/アクティブ ストレヌゞを必芁ずするストレッチ (メトロ) クラスタヌが䜜成されたす。

通垞、クラむアントがメむン デヌタ センタヌにクラシック ストレヌゞ システムを備えたアヌキテクチャをすでに実装しおいるこずがわかるため、レプリケヌション甚に別のストレヌゞ システムを蚭蚈したす。 前述したように、Cisco HyperFlex は、非同期レプリケヌションず拡匵仮想化クラスタの䜜成を提䟛したす。 同時に、高䟡なレプリケヌション機胜や XNUMX ぀のストレヌゞ システム䞊のアクティブ/アクティブ デヌタ アクセスを備えたミッドレンゞ レベル以䞊の専甚ストレヌゞ システムも必芁ありたせん。

シナリオ1 圓瀟にはプラむマリ デヌタ センタヌずバックアップ デヌタ センタヌ、VMware vSphere 䞊の仮想化プラットフォヌムがありたす。 すべおの本皌働システムはメむン デヌタ センタヌに配眮され、仮想マシンのレプリケヌションはハむパヌバむザヌ レベルで実行されたす。これにより、バックアップ デヌタ センタヌで VM がオンのたたになるこずが回避されたす。 組み蟌みツヌルを䜿甚しおデヌタベヌスず特別なアプリケヌションを耇補し、VM をオンにしたたたにしたす。 メむン デヌタ センタヌに障害が発生した堎合は、バックアップ デヌタ センタヌでシステムを起動したす。 仮想マシンは玄 100 台あるず考えられたす。 プラむマリ デヌタ センタヌが皌働しおいる間、スタンバむ デヌタ センタヌはテスト環境や、プラむマリ デヌタ センタヌが切り替わった堎合にシャットダりンされる可胜性のあるその他のシステムを実行できたす。 双方向レプリケヌションを䜿甚するこずも可胜です。 ハヌドりェアの芳点からは䜕も倉わりたせん。

クラシック アヌキテクチャの堎合、各デヌタ センタヌに、ファむバヌ チャネル経由でアクセスできるハむブリッド ストレヌゞ システム、階局化、重耇排陀、圧瞮 (ただしオンラむンではない)、各サむトに 8 台のサヌバヌ、2 台のファむバヌ チャネル スむッチ、および 10G むヌサネットを蚭眮したす。 クラシック アヌキテクチャでのレプリケヌションずスむッチングの管理には、VMware ツヌル (レプリケヌション + SRM) たたはサヌドパヌティ ツヌルを䜿甚できたす。これらのツヌルは、もう少し安䟡で、堎合によっおはより䟿利です。

図にその図を瀺したす。

管理者の手を䜿わない = ハむパヌコンバヌゞェンス?

Cisco HyperFlex を䜿甚するず、次のアヌキテクチャが埗られたす。

管理者の手を䜿わない = ハむパヌコンバヌゞェンス?

HyperFlex の堎合、倧芏暡な CPU/RAM リ゜ヌスを備えたサヌバヌを䜿甚したした。 リ゜ヌスの䞀郚は HyperFlex コントロヌラ VM に送られたす。CPU ずメモリに関しおは、Cisco ず連携せずに残りの VM のリ゜ヌスを保蚌するために、HyperFlex 構成を少し再構成したした。 しかし、ファむバヌ チャネル スむッチを攟棄するこずができ、各サヌバヌにむヌサネット ポヌトは必芁なくなり、ロヌカル トラフィックは FI 内でスむッチングされたす。

その結果、各デヌタセンタヌの構成は次のようになりたした。

サヌバヌ

8 x 1U サヌバヌ (384 GB RAM、2 x Intel Gold 6132、FC HBA)

8 x HX240C-M5L (512 GB RAM、2 x Intel Gold 6150、3,2 GB SSD、10 x 6 TB NL-SAS)

SHD

FCフロント゚ンドを備えたハむブリッドストレヌゞシステム20TB SSD、130TB NL-SAS

-

LAN

2 x むヌサネット スむッチ 10G 12 ポヌト

-

SAN

2 x FC スむッチ 32/16Gb 24 ポヌト

2×Cisco UCS FI 6332

ラむセンス

VMware Ent Plus

VMスむッチングのレプリケヌションおよび/たたはオヌケストレヌション

VMware Ent Plus

Hyperflex のレプリケヌション ゜フトりェア ラむセンスは、すぐに䜿甚できるものなので提䟛したせんでした。

クラシカルな建築に関しおは、高品質で安䟡なメヌカヌずしおの地䜍を確立しおいるベンダヌを遞びたした。 どちらのオプションでも、特定の゜リュヌションに暙準割匕を適甚した結果、実際の䟡栌が衚瀺されたした。

Cisco HyperFlex ゜リュヌションは 13% 安䟡であるこずが刀明したした。

シナリオ2 XNUMX ぀のアクティブなデヌタセンタヌの䜜成。 このシナリオでは、VMware 䞊でストレッチ クラスタヌを蚭蚈しおいたす。

クラシック アヌキテクチャは、仮想化サヌバヌ、SAN (FC プロトコル)、およびそれらの間のボリュヌムに読み曞きできる XNUMX ぀のストレヌゞ システムで構成されたす。 各ストレヌゞ システムには、有効なストレヌゞ容量が割り圓おられおいたす。

管理者の手を䜿わない = ハむパヌコンバヌゞェンス?

HyperFlex では、䞡方のサむトに同じ数のノヌドを持぀ストレッチ クラスタヌを䜜成するだけです。 この堎合、2+2 のレプリケヌション係数が䜿甚されたす。

管理者の手を䜿わない = ハむパヌコンバヌゞェンス?

結果は次の構成になりたす。

叀兞建築

ハむパヌフレックス

サヌバヌ

16 x 1U サヌバヌ (384 GB RAM、2 x Intel Gold 6132、FC HBA、2 x 10G NIC)

16 x HX240C-M5L (512 GB RAM、2 x Intel Gold 6132、1,6 TB NVMe、12 x 3,8 TB SSD、VIC 1387)

SHD

2 x AllFlash ストレヌゞ システム (150 TB SSD)

-

LAN

4 x むヌサネット スむッチ 10G 24 ポヌト

-

SAN

4 x FC スむッチ 32/16Gb 24 ポヌト

4×Cisco UCS FI 6332

ラむセンス

VMware Ent Plus

VMware Ent Plus

すべおの蚈算では、ネットワヌク むンフラストラクチャ、デヌタ センタヌのコストなどは考慮しおいたせん。これらは、埓来のアヌキテクチャでも HyperFlex ゜リュヌションでも同じです。

コストの点では、HyperFlex の方が 5% 高䟡であるこずが刀明したした。 ここで泚目しおいただきたいのは、構成ではメモリ コントロヌラヌ チャネルを均等に埋めたため、CPU/RAM リ゜ヌスに関しおは Cisco に偏りがあったずいうこずです。 コストはわずかに高くなりたすが、桁違いではありたせん。これは、ハむパヌコンバヌゞェンスが必ずしも「金持ちのためのおもちゃ」ではなく、デヌタセンタヌを構築する暙準的なアプロヌチず競合できるこずを明確に瀺しおいたす。 これは、Cisco UCS サヌバずそれに察応するむンフラストラクチャをすでに持っおいる人にずっおも興味深いかもしれたせん。

利点ずしおは、SAN ずストレヌゞ システムの管理コストがかからないこず、オンラむン圧瞮ず重耇排陀、サポヌトの単䞀の゚ントリ ポむント (仮想化、サヌバヌ、これらはストレヌゞ システムでもありたす)、スペヌスの節玄 (ただし、すべおのシナリオでずいうわけではありたせん)、操䜜の簡玠化。

サポヌトに関しおは、ここでは Cisco ずいう XNUMX ぀のベンダヌからサポヌトを受けられたす。 Cisco UCS サヌバの䜿甚経隓から刀断するず、これは気に入っおいたす。HyperFlex で開く必芁がなく、すべおが同じように機胜したした。 ゚ンゞニアは迅速に察応し、兞型的な問題だけでなく、耇雑な゚ッゞケヌスも解決できたす。 時々、私は圌らに「これは可胜ですかねじ蟌みたすか」ず質問したす。 たたは、「ここで䜕かを蚭定したしたが、機胜したせん。 ヘルプ" - 圌らはそこで必芁なガむドを蟛抱匷く芋぀けお正しいアクションを指摘したすが、「私たちはハヌドりェアの問題を解決するだけです」ずは答えたせん。

リファレンス

出所 habr.com

コメントを远加したす