هٿن کان سواءِ منتظم = هائپر ڪنورجنسي؟

هٿن کان سواءِ منتظم = هائپر ڪنورجنسي؟
هٿن کان سواءِ منتظم = هائپر ڪنورجنسي؟

هي هڪ افسانو آهي جيڪو سرور هارڊويئر جي ميدان ۾ ڪافي عام آهي. عملي طور تي، hyperconverged حل (جڏهن هر شيء هڪ ۾ آهي) ڪيترن ئي شين جي ضرورت آهي. تاريخي طور تي، پهرين تعميرات ٺاهيا ويا Amazon ۽ گوگل پاران انهن جي خدمتن لاء. پوءِ خيال آيو ته هڪجهڙا نوڊس مان هڪ ڪمپيوٽنگ فارم ٺاهيو وڃي، جن مان هر هڪ جي پنهنجي ڊسڪ هئي. اهو سڀ ڪجهه سسٽم ٺاهڻ واري سافٽ ويئر (hypervisor) طرفان متحد ڪيو ويو ۽ ورچوئل مشينن ۾ ورهايو ويو. بنيادي مقصد ھڪڙي نوڊ جي خدمت ڪرڻ لاء گھٽ ۾ گھٽ ڪوشش آھي ۽ گھٽ ۾ گھٽ مسئلن جو اسڪيلنگ جڏھن: صرف ھڪڙو ھزار يا ٻه ساڳيو سرور خريد ڪريو ۽ انھن کي ويجھي سان ڳنڍيو. عملي طور تي، اهي الڳ الڳ ڪيس آهن، ۽ گهڻو ڪري اڪثر اسان هڪ ننڍڙي تعداد جي نوڊس ۽ ٿوري مختلف فن تعمير بابت ڳالهائي رهيا آهيون.

پر پلس ساڳيو رهي ٿو - اسڪيلنگ ۽ انتظام جي ناقابل اعتماد آسان. نقصان اهو آهي ته مختلف ڪمن ۾ وسيلن جو استعمال مختلف طرح سان ٿئي ٿو، ۽ ڪجهه هنڌن تي تمام گهڻيون لوڪل ڊسڪون هونديون، ٻين ۾ ٿوري ريم هوندي، وغيره، يعني مختلف قسمن جي ڪمن لاءِ وسيلن جو استعمال گهٽجي ويندو.

اهو ظاهر ٿيو ته توهان سيٽ اپ جي آسانيءَ لاءِ 10-15% وڌيڪ ادا ڪندا آهيو. اهو ئي آهي جنهن جي عنوان ۾ افسانه کي جنم ڏنو. اسان هڪ ڊگهو وقت گذاريو آهي ڳولڻ ۾ جتي ٽيڪنالاجي کي بهتر طور تي لاڳو ڪيو ويندو، ۽ اسان اهو مليو. حقيقت اها آهي ته سسڪو وٽ پنهنجو اسٽوريج سسٽم نه هو، پر اهي هڪ مڪمل سرور مارڪيٽ چاهيندا هئا. ۽ انهن سسڪو هائپر فلڪس ٺاهيو - نوڊس تي مقامي اسٽوريج سان هڪ حل.

۽ اوچتو اهو نڪتو ته بيڪ اپ ڊيٽا سينٽرز (ڊزاسٽر ريڪوري) لاءِ تمام سٺو حل آهي. مان توهان کي ٻڌايان ٿو ڇو ۽ ڪيئن. ۽ مان توهان کي ڏيکاريندس ڪلستر ٽيسٽ.

جتي ضرورت هجي

Hyperconvergence آهي:

  1. ڳڻپيوڪر نوڊس ڏانهن ڊسڪ منتقل ڪرڻ.
  2. ورچوئلائيزيشن سب سسٽم سان گڏ اسٽوريج سب سسٽم جو مڪمل انضمام.
  3. منتقلي / نيٽ ورڪ سب سسٽم سان انضمام.

هي ميلاپ توهان کي ورچوئلائيزيشن سطح تي ڪيترن ئي اسٽوريج سسٽم جي خاصيتن کي لاڳو ڪرڻ جي اجازت ڏئي ٿو ۽ سڀ هڪ ڪنٽرول ونڊو مان.

اسان جي ڪمپني ۾، بيڪار ڊيٽا سينٽرن کي ڊزائين ڪرڻ جا منصوبا وڏي گهرج ۾ آهن، ۽ هڪ هائپر ڪنورجڊ حل اڪثر چونڊيو ويندو آهي ڇاڪاڻ ته نقل جي اختيارن جي هڪ گروپ جي ڪري (هڪ ميٽرو ڪلستر تائين) باڪس کان ٻاهر.

بيڪ اپ ڊيٽا سينٽرن جي صورت ۾، اسان عام طور تي هڪ ريموٽ سهولت بابت ڳالهائي رهيا آهيون هڪ سائيٽ تي شهر جي ٻئي پاسي يا ٻئي شهر ۾ مڪمل طور تي. اهو توهان کي بنيادي ڊيٽا سينٽر جي جزوي يا مڪمل ناڪامي جي صورت ۾ نازڪ سسٽم بحال ڪرڻ جي اجازت ڏئي ٿو. سيلز ڊيٽا مسلسل اتي نقل ڪئي وئي آهي، ۽ هي نقل ايپليڪيشن سطح تي يا بلاڪ ڊوائيس (اسٽوريج) سطح تي ٿي سگهي ٿو.

تنهن ڪري، هاڻي مان ڳالهائيندس سسٽم ڊيزائن ۽ ٽيسٽ بابت، ۽ پوءِ بچت واري ڊيٽا سان گڏ ڪجهه حقيقي زندگي جي ايپليڪيشن منظرنامي بابت.

ٽيسٽ

اسان جو مثال چار سرورن تي مشتمل آھي، جن مان ھر ھڪ وٽ 10 ايس ايس ڊي ڊرائيو آھي 960 GB. ڪيشنگ لکڻ جي عملن ۽ خدمت ورچوئل مشين کي محفوظ ڪرڻ لاءِ هڪ وقف ڊسڪ آهي. حل پاڻ کي چوٿون نسخو آهي. پهريون صاف طور تي خام آهي (جائزو ڪندي فيصلو ڪندي)، ٻيو نم آهي، ٽيون اڳ ۾ ئي ڪافي مستحڪم آهي، ۽ هن کي عام عوام لاء بيٽا ٽيسٽ جي اختتام کان پوء آزاد ڪري سگهجي ٿو. جاچ دوران مون ڪا به پريشاني نه ڏٺي، هر شي هڪ ڪلاڪ وانگر ڪم ڪري ٿي.

۾ تبديليون v4ڪافين جو هڪ گروپ مقرر ڪيو ويو آهي.

شروعات ۾، پليٽ فارم صرف VMware ESXi hypervisor سان ڪم ڪري سگهي ٿو ۽ نوڊس جي هڪ ننڍڙي تعداد جي حمايت ڪئي. انهي سان گڏ، لڳائڻ وارو عمل هميشه ڪاميابي سان ختم نه ٿيو، ڪجهه مرحلن کي ٻيهر شروع ڪرڻو پيو، پراڻن نسخن کان تازه ڪاري ڪرڻ ۾ مسئلا هئا، GUI ۾ ڊيٽا هميشه صحيح طور تي ظاهر نه ڪئي وئي هئي (جيتوڻيڪ مان اڃا تائين ڪارڪردگي گراف جي ڊسپلي سان خوش نه آهيان. )، ڪڏهن ڪڏهن مسئلا ورچوئلائيزيشن سان انٽرنيٽ تي پيدا ٿيا.

ھاڻي بچپن جا سڀ مسئلا حل ڪيا ويا آھن، HyperFlex ٻئي ESXi ۽ Hyper-V کي سنڀالي سگھن ٿا، ان سان گڏ اھو ممڪن آھي ته:

  1. هڪ ڊگهو ڪلستر ٺاهڻ.
  2. ٻن کان چار نوڊس (اسان صرف سرور خريد ڪندا آهيون) فيبرڪ انٽر ڪنيڪٽ استعمال ڪرڻ کان سواءِ آفيسن لاءِ ڪلسٽر ٺاهڻ.
  3. ٻاهرين اسٽوريج سسٽم سان ڪم ڪرڻ جي صلاحيت.
  4. ڪنٽينرز ۽ ڪبرنيٽس لاءِ سپورٽ.
  5. دستيابي علائقن جي ٺهڻ.
  6. VMware SRM سان انضمام جيڪڏهن تعمير ٿيل ڪارڪردگي اطمينان بخش نه آهي.

فن تعمير ان جي مکيه مقابلن جي حل کان گهڻو مختلف ناهي؛ اهي هڪ سائيڪل ٺاهي نه هئا. اهو سڀ هلندو آهي VMware يا Hyper-V ورچوئلائيزيشن پليٽ فارم تي. هارڊويئر جي ميزباني ڪيل آهي ملڪيت جي سسڪو يو سي ايس سرورز تي. اتي اھي آھن جيڪي پليٽ فارم کان نفرت ڪن ٿا شروعاتي سيٽ اپ جي نسبتا پيچيدگي، گھڻن بٽڻن، ٽيمپليٽ ۽ انحصار جو ھڪڙو غير معمولي نظام، پر اھي اھي آھن جن زين کي سکيو آھي، خيال کان متاثر ٿيا آھن ۽ ھاڻي نه چاھيندا آھن. ٻين سرورن سان ڪم ڪرڻ لاء.

اسان VMware جي حل تي غور ڪنداسين، ڇو ته حل اصل ۾ ان لاءِ ٺاھيو ويو آھي ۽ وڌيڪ ڪارڪردگي آھي؛ ھائپر-V کي مقابلي ۾ رکڻ ۽ مارڪيٽ جي اميدن کي پورو ڪرڻ لاءِ رستي ۾ شامل ڪيو ويو.

اتي ڊسڪ سان ڀريل سرورز جو هڪ ڪلستر آهي. ڊيٽا اسٽوريج لاءِ ڊسڪون آهن (SSD يا HDD - توهان جي ذائقي ۽ ضرورتن مطابق)، ڪيشنگ لاءِ هڪ SSD ڊسڪ آهي. جڏهن ڊيٽا اسٽور ڏانهن ڊيٽا لکڻ، ڊيٽا ڪيشنگ پرت تي محفوظ ڪئي وئي آهي (وقف SSD ڊسڪ ۽ خدمت VM جي رام). متوازي طور تي، ڊيٽا جو هڪ بلاڪ ڪلستر ۾ نوڊس ڏانهن موڪليو ويو آهي (نوڊس جو تعداد ڪلستر جي نقل جي عنصر تي منحصر آهي). ڪامياب رڪارڊنگ بابت سڀني نوڊس کان تصديق ڪرڻ کان پوء، رڪارڊنگ جي تصديق هائپرائزر ڏانهن موڪليو ويو آهي ۽ پوء VM ڏانهن. رڪارڊ ٿيل ڊيٽا پس منظر ۾ ذخيرو ڊسڪ ڏانهن نقل، ٺهيل ۽ لکيل آهي. ساڳئي وقت، هڪ وڏو بلاڪ هميشه اسٽوريج ڊسڪ ڏانهن لکيو ويندو آهي ۽ ترتيب سان، جيڪو اسٽوريج ڊسڪ تي لوڊ گھٽائي ٿو.

نقل ۽ ڪمپريشن هميشه فعال آهن ۽ غير فعال نٿا ٿي سگهن. ڊيٽا سڌو سنئون اسٽوريج ڊسڪ مان يا رام ڪيش مان پڙهي ويندي آهي. جيڪڏهن هڪ هائبرڊ ترتيب استعمال ڪئي وئي آهي، پڙهائي پڻ SSD تي ڪيش ٿيل آهن.

ڊيٽا مجازي مشين جي موجوده مقام سان ڳنڍيل نه آهي ۽ نوڊس جي وچ ۾ برابر طور تي ورهايل آهي. اهو طريقو توهان کي سڀني ڊسڪ ۽ نيٽ ورڪ انٽرفيس کي برابر طور تي لوڊ ڪرڻ جي اجازت ڏئي ٿو. هتي هڪ واضح نقصان آهي: اسان پڙهڻ جي ويڪرائي کي گهٽ نه ٿا ڪري سگهون جيترو ممڪن آهي، ڇاڪاڻ ته مقامي طور تي ڊيٽا جي دستيابي جي ڪا به ضمانت ناهي. پر مان سمجهان ٿو ته اها حاصل ڪيل فائدن جي مقابلي ۾ هڪ معمولي قرباني آهي. ان کان علاوه، نيٽ ورڪ جي دير تائين پهچي ويا آهن اهڙي قدر جيڪي اهي عملي طور تي مجموعي نتيجن تي اثر انداز نٿا ڪن.

هڪ خاص خدمت VM Cisco HyperFlex ڊيٽا پليٽ فارم ڪنٽرولر، جيڪو هر اسٽوريج نوڊ تي ٺاهيل آهي، ڊسڪ سب سسٽم جي سموري آپريشن منطق لاء ذميوار آهي. اسان جي خدمت ۾ VM ٺاھ جوڙ، اٺ وي سي پي يوز ۽ 72 GB جي رام مختص ڪيا ويا، جيڪو ايترو ننڍڙو نه آھي. مون کي توهان کي ياد ڏياريو ته ميزبان پاڻ وٽ 28 جسماني ڪور ۽ 512 GB جي رام آهي.

خدمت VM کي سڌو سنئون فزيڪل ڊسڪ تائين رسائي آهي SAS ڪنٽرولر کي VM ڏانهن اڳتي وڌائيندي. هائپر وائيزر سان ڪميونيڪيشن هڪ خاص ماڊل IOVisor ذريعي ٿئي ٿو، جيڪو I/O آپريشنز کي روڪي ٿو، ۽ هڪ ايجنٽ استعمال ڪري ٿو جيڪو توهان کي اجازت ڏئي ٿو ته حڪمن کي هائپرائزر API ڏانهن موڪلڻ. ايجنٽ HyperFlex سنيپ شاٽ ۽ کلون سان ڪم ڪرڻ جو ذميوار آهي.

ڊسڪ ريسورس هائپر وائزر ۾ نصب ٿيل آهن جيئن NFS يا SMB شيئرز (انحصار ڪري هائپر وائيزر جي قسم تي، اندازو لڳايو ته ڪير ڪٿي آهي). ۽ هود جي هيٺان، هي هڪ ورهايل فائل سسٽم آهي جيڪو توهان کي بالغن جي مڪمل اسٽوريج سسٽم جون خاصيتون شامل ڪرڻ جي اجازت ڏئي ٿو: پتلي حجم مختص، کمپريشن ۽ ڊيپليٽيشن، ريڊائريڪٽ-آن-لکڻ ٽيڪنالاجي استعمال ڪندي سنيپ شاٽ، هم وقت سازي / غير مطابقت واري نقل.

خدمت VM HyperFlex سب سسٽم جي WEB مئنيجمينٽ انٽرفيس تائين رسائي فراهم ڪري ٿي. vCenter سان انٽيگريشن آهي، ۽ اڪثر روزمره جا ڪم ان مان سرانجام ڏئي سگھجن ٿا، پر ڊيٽا اسٽور، مثال طور، هڪ الڳ ويب ڪيم کان ڪٽڻ وڌيڪ آسان آهن جيڪڏهن توهان اڳ ۾ ئي هڪ تيز HTML5 انٽرفيس تي سوئچ ڪيو آهي، يا هڪ مڪمل فليش ڪلائنٽ استعمال ڪريو. مڪمل انضمام سان. سروس ويب ڪيم ۾ توهان سسٽم جي ڪارڪردگي ۽ تفصيلي صورتحال ڏسي سگهو ٿا.

هٿن کان سواءِ منتظم = هائپر ڪنورجنسي؟

ڪلستر ۾ نوڊ جو ٻيو قسم آھي - ڪمپيوٽنگ نوڊس. اهي ٿي سگهن ٿيون ريڪ يا بليڊ سرور بغير بنا ڪنهن ڊسڪ جي. اهي سرور هلائي سگهن ٿا VM جن جي ڊيٽا ڊسڪ سان گڏ سرورز تي محفوظ ٿيل آهي. ڊيٽا جي رسائي جي نقطي نظر کان، نوڊس جي قسمن جي وچ ۾ ڪوبه فرق نه آهي، ڇاڪاڻ ته فن تعمير ۾ ڊيٽا جي جسماني مقام کان تجزيه شامل آهي. ڪمپيوٽنگ نوڊس جو وڌ ۾ وڌ تناسب اسٽوريج نوڊس تائين 2:1 آهي.

ڪمپيوٽ نوڊس استعمال ڪرڻ لچڪ وڌائي ٿو جڏهن ڪلسٽر وسيلن کي اسڪيلنگ ڪيو وڃي: اسان کي ڊسڪ سان اضافي نوڊس خريد ڪرڻ جي ضرورت ناهي جيڪڏهن اسان کي صرف سي پي يو / رام جي ضرورت آهي. اضافي طور تي، اسان هڪ بليڊ پنجج شامل ڪري سگهون ٿا ۽ سرور جي ريڪ جي جڳهه تي محفوظ ڪري سگهون ٿا.

نتيجي طور، اسان وٽ هيٺ ڏنل خاصيتن سان گڏ هڪ هائپر ڪنورجڊ پليٽ فارم آهي:

  • ڪلستر ۾ 64 نوڊس تائين (32 اسٽوريج نوڊس تائين).
  • ڪلستر ۾ نوڊس جو گھٽ ۾ گھٽ تعداد ٽي آھي (ٻه ايج ڪلستر لاءِ).
  • ڊيٽا ريڊنڊنسي ميڪانيزم: ريپليڪشن فيڪٽر 2 ۽ 3 سان آئيني.
  • ميٽرو ڪلستر.
  • Asynchronous VM نقل ٻئي HyperFlex ڪلستر ڏانهن.
  • ريموٽ ڊيٽا سينٽر ڏانهن وي ايمز کي تبديل ڪرڻ جي آرڪيسٽريشن.
  • Redirect-on-write ٽيڪنالاجي استعمال ڪندي اصلي تصوير.
  • 1 PB تائين استعمال لائق جاءِ نقل ڪرڻ واري عنصر 3 تي ۽ بغير نقل جي. اسان حساب ۾ نه وٺون ٿا نقل جي عنصر 2، ڇاڪاڻ ته اهو سنجيده سيلز لاء هڪ اختيار ناهي.

هڪ ٻيو وڏو پلس انتظام ۽ تعیناتي ۾ آسان آهي. UCS سرورز کي ترتيب ڏيڻ جي سڀني پيچيدگين جو خيال رکيو وڃي ٿو هڪ خاص VM پاران تيار ڪيل سسڪو انجنيئرز طرفان.

ٽيسٽ بينچ جي جوڙجڪ:

  • 2 x Cisco UCS Fabric Interconnect 6248UP هڪ مئنيجمينٽ ڪلسٽر ۽ نيٽ ورڪ اجزاء جي طور تي (48 بندرگاهن ايٿرنيٽ 10G/FC 16G موڊ ۾ ڪم ڪري رهيا آهن).
  • چار Cisco UCS HXAF240 M4 سرور.

سرور جون خاصيتون:

سي پي يو

2 x Intel® Xeon® E5-2690 v4

رام

16 x 32GB DDR4-2400-MHz RDIMM/PC4-19200/ڊبل درجه بندي/x4/1.2v

نيٽ ورڪ

UCSC-MLOM-CSC-02 (VIC 1227). 2 10G Ethernet بندرگاهن

اسٽوريج HBA

سسڪو 12G ماڊلر SAS پاس ڪنٽرولر ذريعي

اسٽوريج ڊسڪ

1 x SSD Intel S3520 120 GB، 1 x SSD Samsung MZ-IES800D، 10 x SSD Samsung PM863a 960 GB

وڌيڪ ٺاھ جوڙ جا اختيارمنتخب ٿيل هارڊويئر جي اضافي ۾، هيٺيون آپشن موجود آهن:

  • HXAF240c M5.
  • هڪ يا ٻه سي پي يوز Intel Silver 4110 کان Intel Platinum I8260Y تائين. ٻيو نسل موجود.
  • 24 ميموري سلاٽ، پٽي 16 GB RDIMM 2600 کان 128 GB LRDIMM 2933 تائين.
  • 6 کان 23 ڊيٽا ڊسڪ، هڪ ڪيشنگ ڊسڪ، هڪ سسٽم ڊسڪ ۽ هڪ بوٽ ڊسڪ.

ظرفيت ڊرائيو

  • HX-SD960G61X-EV 960GB 2.5 انچ انٽرپرائز ويليو 6G SATA SSD (1X برداشت) SAS 960 GB.
  • HX-SD38T61X-EV 3.8TB 2.5 انچ انٽرپرائز ويليو 6G SATA SSD (1X برداشت) SAS 3.8 TB.
  • ڪيشنگ ڊرائيو
  • HX-NVMEXPB-I375 375GB 2.5 انچ Intel Optane Drive، Extreme Perf & Endurance.
  • HX-NVMEHW-H1600* 1.6TB 2.5 انچ Ent. پرف. NVMe SSD (3X برداشت) NVMe 1.6 TB.
  • HX-SD400G12TX-EP 400GB 2.5 انچ Ent. پرف. 12G SAS SSD (10X برداشت) SAS 400 GB.
  • HX-SD800GBENK9** 800GB 2.5 انچ Ent. پرف. 12G SAS SED SSD (10X برداشت) SAS 800 GB.
  • HX-SD16T123X-EP 1.6TB 2.5 انچ انٽرپرائز ڪارڪردگي 12G SAS SSD (3X برداشت).

سسٽم / لاگ ڊرائيو

  • HX-SD240GM1X-EV 240GB 2.5 انچ انٽرپرائز ويليو 6G SATA SSD (اپ گريڊ جي ضرورت آهي).

بوٽ ڊرائيو

  • HX-M2-240GB 240GB SATA M.2 SSD SATA 240 GB.

نيٽ ورڪ سان ڳنڍيو 40G، 25G يا 10G Ethernet بندرگاهن ذريعي.

FI ٿي سگھي ٿو HX-FI-6332 (40G)، HX-FI-6332-16UP (40G)، HX-FI-6454 (40G/100G).

امتحان پاڻ

ڊسڪ سب سسٽم کي جانچڻ لاء، مون استعمال ڪيو HCIBench 2.2.1. هي هڪ مفت افاديت آهي جيڪا توهان کي اجازت ڏئي ٿي ته ڪيترن ئي ورچوئل مشينن مان لوڊ ٺاهڻ کي خودڪار ڪرڻ. لوڊ پاڻ کي عام فيو پاران ٺاهيل آهي.

اسان جو ڪلستر چار نوڊس تي مشتمل آھي، ريپليڪشن فيڪٽر 3، سڀ ڊسڪ فليش آھن.

جاچ لاءِ، مون چار ڊيٽا اسٽورز ۽ اٺ ورچوئل مشينون ٺاھيون. لکڻ جي تجربن لاء، اهو فرض ڪيو ويو آهي ته ڪيشنگ ڊسڪ مڪمل نه آهي.

امتحان جا نتيجا هن ريت آهن:

100٪ پڙهو 100٪ بي ترتيب

0٪ پڙهو 100٪ بي ترتيب

بلاڪ / قطار جي کوٽائي

128

256

512

1024

2048

128

256

512

1024

2048

4K

0,59 ايم ايس 213804 IOPS

0,84 ايم ايس 303540 IOPS

1,36ms 374348 IOPS

2.47 ايم ايس 414116 IOPS

4,86ms 420180 IOPS

2,22 ايم ايس 57408 IOPS

3,09 ايم ايس 82744 IOPS

5,02 ايم ايس 101824 IPOS

8,75 ايم ايس 116912 IOPS

17,2 ايم ايس 118592 IOPS

8K

0,67 ايم ايس 188416 IOPS

0,93 ايم ايس 273280 IOPS

1,7 ايم ايس 299932 IOPS

2,72 ايم ايس 376,484 IOPS

5,47 ايم ايس 373,176 IOPS

3,1 ايم ايس 41148 IOPS

4,7 ايم ايس 54396 IOPS

7,09 ايم ايس 72192 IOPS

12,77 ايم ايس 80132 IOPS

16K

0,77 ايم ايس 164116 IOPS

1,12 ايم ايس 228328 IOPS

1,9 ايم ايس 268140 IOPS

3,96 ايم ايس 258480 IOPS

3,8 ايم ايس 33640 IOPS

6,97 ايم ايس 36696 IOPS

11,35 ايم ايس 45060 IOPS

32K

1,07 ايم ايس 119292 IOPS

1,79 ايم ايس 142888 IOPS

3,56 ايم ايس 143760 IOPS

7,17 ايم ايس 17810 IOPS

11,96 ايم ايس 21396 IOPS

64K

1,84 ايم ايس 69440 IOPS

3,6 ايم ايس 71008 IOPS

7,26 ايم ايس 70404 IOPS

11,37 ايم ايس 11248 IOPS

بولڊ قدرن کي ظاهر ڪري ٿو جنهن کان پوء پيداوار ۾ ڪو به واڌارو نه آهي، ڪڏهن ڪڏهن به انحطاط به نظر اچي ٿو. اهو حقيقت جي ڪري آهي ته اسان نيٽ ورڪ / ڪنٽرولرز / ڊسڪ جي ڪارڪردگي تائين محدود آهيون.

  • ترتيب وار پڙھڻ 4432 MB/s.
  • ترتيب وار لکڻ 804 MB/s.
  • جيڪڏهن هڪ ڪنٽرولر ناڪام ٿئي ٿو (هڪ مجازي مشين يا ميزبان جي ناڪامي)، ڪارڪردگي ڦوٽو ٻه ڀيرا آهي.
  • جيڪڏهن اسٽوريج ڊسڪ ناڪام ٿئي ٿي، ڊرائنگ 1/3 آهي. ڊسڪ ٻيهر تعمير هر ڪنٽرولر جي وسيلن جو 5٪ وٺندو آهي.

هڪ ننڍڙي بلاڪ تي، اسان ڪنٽرولر (ورچوئل مشين) جي ڪارڪردگي تائين محدود آهيون، ان جو سي پي يو 100٪ تي لوڊ ڪيو ويندو آهي، ۽ جڏهن بلاڪ وڌندو آهي، اسان بندرگاهه بينڊوڊٿ طرفان محدود آهيون. 10 Gbps تمام فليش سسٽم جي صلاحيت کي انلاڪ ڪرڻ لاء ڪافي ناهي. بدقسمتي سان، مهيا ڪيل ڊيمو اسٽينڊ جا پيرا ميٽر اسان کي 40 Gbit / s تي آپريشن کي جانچڻ جي اجازت نٿا ڏين.

ٽيسٽن ۽ آرڪيٽيڪچر جي مطالعي مان منهنجي تاثر ۾، الورورٿم جي ڪري جيڪو ڊيٽا سڀني ميزبانن جي وچ ۾ رکي ٿو، اسان کي اسپيبلبل، پيشڪش ڪارڪردگي حاصل ٿئي ٿي، پر اهو پڻ هڪ حد آهي جڏهن پڙهڻ، ڇاڪاڻ ته اهو ممڪن هوندو ته مقامي ڊسڪ مان وڌيڪ نچوض ڪرڻ، هتي اهو هڪ وڌيڪ پيداواري نيٽ ورڪ بچائي سگهي ٿو، مثال طور، FI 40 Gbit/s تي موجود آهي.

انهي سان گڏ، هڪ ڊسڪ ڪيشنگ ۽ ڊيپپليڪيشن لاء هڪ حد ٿي سگهي ٿي؛ حقيقت ۾، هن ٽيسٽ بيڊ ۾ اسان چار ايس ايس ڊي ڊسڪ تي لکي سگهون ٿا. اهو وڏو ٿيندو ته ڪيشنگ ڊرائيو جو تعداد وڌائڻ ۽ فرق ڏسڻ جي قابل هوندو.

حقيقي استعمال

هڪ بيڪ اپ ڊيٽا سينٽر کي منظم ڪرڻ لاء، توهان ٻه طريقا استعمال ڪري سگهو ٿا (اسان ريموٽ سائيٽ تي بيڪ اپ رکڻ تي غور نه ڪندا آهيون):

  1. فعال- غير فعال. سڀئي ايپليڪيشنون مکيه ڊيٽا سينٽر ۾ ميزباني ڪيل آهن. نقل آهي هم وقت سازي يا هم وقت ساز. جيڪڏهن مکيه ڊيٽا سينٽر ناڪام ٿئي ٿي، اسان کي بيڪ اپ کي چالو ڪرڻو پوندو. اهو ڪري سگهجي ٿو دستي طور تي / اسڪرپٽ / آرڪيسٽريشن ايپليڪيشنون. هتي اسان هڪ آر پي او حاصل ڪنداسين نقل ڪرڻ جي تعدد سان مطابقت، ۽ آر ٽي او جو دارومدار منتظم جي رد عمل ۽ صلاحيتن ۽ سوئچنگ پلان جي ترقي/ڊيبگنگ جي معيار تي آهي.
  2. چالو- سرگرم. انهي صورت ۾، اتي صرف هم وقت سازي جي نقل آهي؛ ڊيٽا سينٽرن جي دستيابي هڪ ڪورم / ثالث طرفان مقرر ڪئي وئي آهي جيڪو سختي سان ٽئين سائيٽ تي واقع آهي. RPO = 0، ۽ RTO 0 تائين پهچي سگھي ٿو (جيڪڏهن ايپليڪيشن اجازت ڏئي ٿي) يا ورچوئلائيزيشن ڪلستر ۾ نوڊ جي ناڪامي وقت جي برابر. ورچوئلائيزيشن جي سطح تي، هڪ وڌايل (ميٽرو) ڪلستر ٺاهيو ويو آهي جيڪو فعال-فعال اسٽوريج جي ضرورت آهي.

عام طور تي اسان ڏسون ٿا ته گراهڪ اڳ ۾ ئي هڪ آرڪيٽيڪچر لاڳو ڪري چڪا آهن هڪ کلاسک اسٽوريج سسٽم سان مکيه ڊيٽا سينٽر ۾، تنهنڪري اسان نقل لاءِ هڪ ٻيو ٺاهيو ٿا. جيئن مون ذڪر ڪيو، سسڪو هائپر فلڪس پيش ڪري ٿو غير مطابقت واري نقل ۽ ورچوئلائيزيشن ڪلستر ٺاهڻ. ساڳئي وقت، اسان کي هڪ وقف اسٽوريج سسٽم جي ضرورت ناهي Midrange ليول ۽ وڌيڪ قيمتي نقل جي ڪمن سان ۽ ٻن اسٽوريج سسٽم تي فعال-فعال ڊيٽا جي رسائي سان.

منظر 1: اسان وٽ ھڪڙو پرائمري ۽ بيڪ اپ ڊيٽا مرڪز آھي، ھڪڙو ورچوئلائيزيشن پليٽ فارم VMware vSphere تي. سڀ پيداواري نظام مکيه ڊيٽا سينٽر ۾ واقع آهن، ۽ ورچوئل مشينن جو نقل هائپر وائيزر سطح تي ڪيو ويندو آهي، اهو بيڪ اپ ڊيٽا سينٽر ۾ VMs کي آن رکڻ کان پاسو ڪندو. اسان ٺاهيل اوزار استعمال ڪندي ڊيٽابيس ۽ خاص ايپليڪيشنن کي نقل ڪريون ٿا ۽ VMs کي آن رکون ٿا. جيڪڏهن مکيه ڊيٽا سينٽر ناڪام ٿئي ٿي، اسان بيڪ اپ ڊيٽا سينٽر ۾ سسٽم شروع ڪندا آهيون. اسان يقين رکون ٿا ته اسان وٽ اٽڪل 100 مجازي مشينون آهن. جڏهن ته پرائمري ڊيٽا سينٽر آپريشنل آهي، اسٽينڊ بائي ڊيٽا سينٽر هلائي سگهي ٿو ٽيسٽ ماحول ۽ ٻيا سسٽم جيڪي بند ٿي سگهن ٿا جيڪڏهن پرائمري ڊيٽا سينٽر ختم ٿي وڃي. اهو پڻ ممڪن آهي ته اسان ٻه طرفي نقل استعمال ڪريون. هارڊويئر جي نقطي نظر کان، ڪجھ به تبديل نه ٿيندو.

ڪلاسيڪل آرڪيٽيڪچر جي صورت ۾، اسان هر ڊيٽا سينٽر ۾ هڪ هائبرڊ اسٽوريج سسٽم نصب ڪنداسين جنهن جي رسائي سان FibreChannel، ٽائرنگ، ڊيڊپليڪيشن ۽ ڪمپريشن (پر آن لائن نه)، هر سائيٽ لاءِ 8 سرور، 2 فائبر چينل سوئچز ۽ 10G ايٿرنيٽ. هڪ کلاسک فن تعمير ۾ نقل ۽ سوئچنگ جي انتظام لاء، اسان استعمال ڪري سگهون ٿا VMware اوزار (نقل + SRM) يا ٽئين پارٽي جا اوزار، جيڪي ٿورو سستا ۽ ڪڏهن ڪڏهن وڌيڪ آسان هوندا.

انگ اکر ڏيکاري ٿو.

هٿن کان سواءِ منتظم = هائپر ڪنورجنسي؟

جڏهن Cisco HyperFlex استعمال ڪندي، هيٺين فن تعمير حاصل ڪئي وئي آهي:

هٿن کان سواءِ منتظم = هائپر ڪنورجنسي؟

HyperFlex لاءِ، مون وڏي CPU/RAM وسيلن سان سرور استعمال ڪيو، ڇاڪاڻ ته... ڪجھ وسيلا ھائپر فلڪس ڪنٽرولر وي ايم ڏانھن ويندا؛ سي پي يو ۽ ميموري جي لحاظ کان، مون ھائيپر فليڪس جي ترتيب کي به ٿورڙو ٻيهر ترتيب ڏنو ته جيئن سسڪو سان گڏ راند نه ڪري ۽ باقي VMs لاءِ وسيلن جي ضمانت ڏي. پر اسان FibreChannel سوئچز کي ختم ڪري سگھون ٿا، ۽ اسان کي ھر سرور لاء ايٿرنيٽ بندرگاھن جي ضرورت نه پوندي؛ مقامي ٽرئفڪ FI اندر تبديل ٿيل آھي.

نتيجو هر ڊيٽا سينٽر لاء هيٺ ڏنل تشڪيل هئي:

سرور

8 x 1U سرور (384 GB رام، 2 x Intel Gold 6132، FC HBA)

8 x HX240C-M5L (512 GB رام، 2 x Intel Gold 6150، 3,2 GB SSD، 10 x 6 TB NL-SAS)

ايس ايڇ ڊي

هائبرڊ اسٽوريج سسٽم FC فرنٽ-اينڊ سان (20TB SSD، 130 TB NL-SAS)

-

ايان

2 x Ethernet سوئچ 10G 12 بندرگاهن

-

سين

2 x FC سوئچ 32/16Gb 24 بندرگاهن

2 x Cisco UCS FI 6332

لائسنسون

VMware Ent Plus

VM سوئچنگ جي نقل ۽ / يا آرڪيسٽريشن

VMware Ent Plus

مون هائپر فلڪس لاءِ ريپليڪشن سافٽ ويئر لائسنس فراهم نه ڪيا، ڇو ته هي اسان لاءِ دٻي کان ٻاهر موجود آهي.

ڪلاسيڪل فن تعمير لاءِ، مون هڪ وينڊر چونڊيو آهي جيڪو پاڻ کي اعليٰ معيار ۽ سستو ڪارخانو قائم ڪري چڪو آهي. ٻنهي اختيارن لاءِ، مون مخصوص حل لاءِ معياري رعايت لاڳو ڪئي، ۽ نتيجي طور مون حقيقي قيمتون وصول ڪيون.

Cisco HyperFlex حل 13٪ سستو ٿي ويو.

منظر 2: ٻن فعال ڊيٽا سينٽرن جي پيدائش. هن منظر ۾، اسان VMware تي ٺهيل ڪلستر ٺاهي رهيا آهيون.

کلاسک فن تعمير تي مشتمل آهي ورچوئلائيزيشن سرورز، هڪ SAN (FC پروٽوڪول) ۽ ٻه اسٽوريج سسٽم جيڪي انهن جي وچ ۾ پکڙيل حجم کي پڙهي ۽ لکي سگهن ٿا. هر اسٽوريج سسٽم تي اسان اسٽوريج لاء هڪ مفيد گنجائش رکون ٿا.

هٿن کان سواءِ منتظم = هائپر ڪنورجنسي؟

HyperFlex تي اسان صرف هڪ اسٽريچ ڪلستر ٺاهيندا آهيون ٻنهي سائيٽن تي نوڊس جي ساڳئي تعداد سان. هن معاملي ۾، 2 + 2 جي هڪ replication عنصر استعمال ڪيو ويندو آهي.

هٿن کان سواءِ منتظم = هائپر ڪنورجنسي؟

نتيجو ھيٺ ڏنل تشڪيل آھي:

ڪلاسيڪل فن تعمير

هائپر فلڪس

سرور

16 x 1U سرور (384 GB رام، 2 x Intel Gold 6132، FC HBA، 2 x 10G NIC)

16 x HX240C-M5L (512 GB رام، 2 x Intel Gold 6132، 1,6 TB NVMe، 12 x 3,8 TB SSD، VIC 1387)

ايس ايڇ ڊي

2 x آل فليش اسٽوريج سسٽم (150 TB SSD)

-

ايان

4 x Ethernet سوئچ 10G 24 بندرگاهن

-

سين

4 x FC سوئچ 32/16Gb 24 بندرگاهن

4 x Cisco UCS FI 6332

لائسنسون

VMware Ent Plus

VMware Ent Plus

سڀني حسابن ۾، مون اڪائونٽ ۾ نيٽ ورڪ انفراسٽرڪچر، ڊيٽا سينٽر جي قيمتن وغيره وغيره کي نه ورتو: اهي ساڳيا هوندا ڪلاسيڪل فن تعمير ۽ HyperFlex حل لاءِ.

قيمت جي لحاظ کان، HyperFlex 5٪ وڌيڪ قيمتي ٿي ويو. هتي اهو نوٽ ڪرڻ جي قابل آهي ته سي پي يو / رام وسيلن جي لحاظ کان مون وٽ سسڪو لاء هڪ اسڪيو هو، ڇاڪاڻ ته ترتيب ۾ مون ميموري ڪنٽرولر چينلز کي هڪجهڙائي سان ڀريو. قيمت ٿورڙي وڌيڪ آهي، پر مقدار جي ترتيب سان نه، جيڪو واضح طور تي ظاهر ڪري ٿو ته هائپر ڪنورجنسي ضروري ناهي ته "امير لاء رانديڪو" آهي، پر ڊيٽا سينٽر جي تعمير لاء معياري طريقي سان مقابلو ڪري سگهي ٿو. اهو شايد انهن لاءِ به دلچسپي وارو هجي جن وٽ اڳ ۾ ئي Cisco UCS سرور آهن ۽ انهن لاءِ لاڳاپيل انفراسٽرڪچر.

فائدن ۾، اسان کي SAN ۽ اسٽوريج سسٽم کي منظم ڪرڻ لاء خرچن جي غير موجودگي، آن لائن کمپريشن ۽ ڊيپليڪيشن، سپورٽ لاء هڪ واحد داخلا پوائنٽ (ورچوئلائيزيشن، سرور، اهي پڻ اسٽوريج سسٽم آهن)، خلا جي بچت (پر سڀني حالتن ۾ نه)، آپريشن کي آسان ڪرڻ.

جيئن سپورٽ لاء، هتي توهان ان کي هڪ وينڊر کان حاصل ڪيو - سسڪو. سسڪو يو سي ايس سرورز سان منهنجي تجربي سان فيصلو ڪندي، مون کي اهو پسند آهي؛ مون کي ان کي کولڻ جي ضرورت نه هئي HyperFlex تي، سڀ ڪجهه ساڳيو ڪم ڪيو. انجنيئر فوري طور تي جواب ڏين ٿا ۽ نه رڳو عام مسئلا حل ڪري سگھن ٿا، پر پيچيده کنڊ ڪيس پڻ. ڪڏهن ڪڏهن آئون سوالن سان انهن ڏانهن موٽندو آهيان: "ڇا اهو ڪرڻ ممڪن آهي، ان کي ڇڪيو؟" يا ”مون هتي ڪا شيءِ ترتيب ڏني آهي، ۽ اهو ڪم ڪرڻ نٿو چاهي. مدد!" - اهي صبر سان اتي ضروري گائيڊ ڳوليندا ۽ صحيح ڪمن جي نشاندهي ڪندا؛ اهي جواب نه ڏيندا: "اسان صرف هارڊويئر جا مسئلا حل ڪندا آهيون."

حوالن

جو ذريعو: www.habr.com

تبصرو شامل ڪريو