ہاتھ کے بغیر ایڈمن = ہائپر کنورجنس؟

ہاتھ کے بغیر ایڈمن = ہائپر کنورجنس؟
ہاتھ کے بغیر ایڈمن = ہائپر کنورجنس؟

یہ ایک افسانہ ہے جو سرور ہارڈویئر کے میدان میں کافی عام ہے۔ عملی طور پر، بہت سی چیزوں کے لیے ہائپر کنورجڈ حل (جب سب کچھ ایک میں ہوتا ہے) کی ضرورت ہوتی ہے۔ تاریخی طور پر، پہلا فن تعمیر ایمیزون اور گوگل نے اپنی خدمات کے لیے تیار کیا تھا۔ پھر خیال آیا کہ ایک جیسے نوڈس سے ایک کمپیوٹنگ فارم بنایا جائے، جن میں سے ہر ایک کی اپنی ڈسکیں تھیں۔ یہ سب کچھ سسٹم بنانے والے سافٹ ویئر (ہائپر وائزر) کے ذریعہ متحد کیا گیا تھا اور ورچوئل مشینوں میں تقسیم کیا گیا تھا۔ بنیادی مقصد ایک نوڈ کی خدمت کے لیے کم از کم کوشش اور اسکیلنگ کرتے وقت کم از کم مسائل ہیں: بس ایک ہی ہزار یا دو سرور خریدیں اور انہیں قریب سے جوڑیں۔ عملی طور پر، یہ الگ تھلگ معاملات ہیں، اور زیادہ تر ہم نوڈس کی ایک چھوٹی تعداد اور قدرے مختلف فن تعمیر کے بارے میں بات کر رہے ہیں۔

لیکن پلس وہی رہتا ہے - اسکیلنگ اور انتظام کی ناقابل یقین آسانی۔ منفی پہلو یہ ہے کہ مختلف کام وسائل کو مختلف طریقے سے استعمال کرتے ہیں، اور کچھ جگہوں پر بہت زیادہ لوکل ڈسکیں ہوں گی، دوسری جگہوں پر بہت کم ریم ہوگی، اور اسی طرح، یعنی مختلف قسم کے کاموں کے لیے وسائل کا استعمال کم ہوگا۔

یہ پتہ چلتا ہے کہ آپ سیٹ اپ میں آسانی کے لیے 10-15% زیادہ ادائیگی کرتے ہیں۔ اس نے عنوان میں افسانہ کو جنم دیا۔ ہم نے ایک طویل وقت اس بات کی تلاش میں گزارا کہ ٹیکنالوجی کا بہترین اطلاق کہاں کیا جائے گا، اور ہمیں یہ مل گیا۔ حقیقت یہ ہے کہ سسکو کے پاس اپنا اسٹوریج سسٹم نہیں تھا، لیکن وہ ایک مکمل سرور مارکیٹ چاہتے تھے۔ اور انہوں نے سسکو ہائپر فلیکس بنایا - نوڈس پر مقامی اسٹوریج کے ساتھ ایک حل۔

اور یہ اچانک بیک اپ ڈیٹا سینٹرز (ڈیزاسٹر ریکوری) کے لیے بہت اچھا حل نکلا۔ میں آپ کو بتاتا ہوں کہ کیوں اور کیسے۔ اور میں آپ کو کلسٹر ٹیسٹ دکھاؤں گا۔

جہاں ضرورت ہو۔

ہائپر کنورجنسی ہے:

  1. ڈسک کو کمپیوٹ نوڈس میں منتقل کرنا۔
  2. ورچوئلائزیشن سب سسٹم کے ساتھ اسٹوریج سب سسٹم کا مکمل انضمام۔
  3. نیٹ ورک سب سسٹم کے ساتھ منتقلی/انضمام۔

یہ مجموعہ آپ کو ورچوئلائزیشن کی سطح پر اور تمام ایک کنٹرول ونڈو سے اسٹوریج سسٹم کی بہت سی خصوصیات کو نافذ کرنے کی اجازت دیتا ہے۔

ہماری کمپنی میں، بے کار ڈیٹا سینٹرز کو ڈیزائن کرنے کے پروجیکٹس کی بہت زیادہ مانگ ہے، اور ایک ہائپر کنورجڈ حل کا انتخاب اکثر نقل کے اختیارات (میٹرو کلسٹر تک) کے باکس سے باہر ہونے کی وجہ سے کیا جاتا ہے۔

بیک اپ ڈیٹا سینٹرز کے معاملے میں، ہم عام طور پر شہر کے دوسری طرف یا کسی دوسرے شہر میں کسی سائٹ پر ریموٹ سہولت کے بارے میں بات کر رہے ہیں۔ یہ آپ کو مرکزی ڈیٹا سینٹر کی جزوی یا مکمل ناکامی کی صورت میں اہم نظام کو بحال کرنے کی اجازت دیتا ہے۔ وہاں سیلز ڈیٹا کو مسلسل نقل کیا جاتا ہے، اور یہ نقل ایپلی کیشن کی سطح پر یا بلاک ڈیوائس (اسٹوریج) کی سطح پر ہوسکتی ہے۔

لہذا، اب میں سسٹم کے ڈیزائن اور ٹیسٹوں کے بارے میں بات کروں گا، اور پھر بچت کے اعداد و شمار کے ساتھ حقیقی زندگی کے اطلاق کے کچھ منظرناموں کے بارے میں بات کروں گا۔

ٹیسٹ

ہماری مثال چار سرورز پر مشتمل ہے، جن میں سے ہر ایک میں 10 GB کی 960 SSD ڈرائیوز ہیں۔ کیشنگ رائٹ آپریشنز اور سروس ورچوئل مشین کو اسٹور کرنے کے لیے ایک سرشار ڈسک موجود ہے۔ حل خود چوتھا ورژن ہے۔ پہلا واضح طور پر خام ہے (جائزہ کے مطابق)، دوسرا نم ہے، تیسرا پہلے ہی کافی مستحکم ہے، اور اسے عام لوگوں کے لیے بیٹا ٹیسٹنگ کے اختتام کے بعد ریلیز کہا جا سکتا ہے۔ ٹیسٹنگ کے دوران مجھے کوئی پریشانی نظر نہیں آئی، ہر چیز گھڑی کی طرح کام کرتی ہے۔

v4 میں تبدیلیاںکیڑے کا ایک گروپ طے کیا گیا ہے.

ابتدائی طور پر، پلیٹ فارم صرف VMware ESXi ہائپر وائزر کے ساتھ کام کر سکتا تھا اور نوڈس کی ایک چھوٹی تعداد کو سپورٹ کرتا تھا۔ اس کے علاوہ، تعیناتی کا عمل ہمیشہ کامیابی کے ساتھ ختم نہیں ہوتا تھا، کچھ مراحل کو دوبارہ شروع کرنا پڑتا تھا، پرانے ورژن سے اپ ڈیٹ کرنے میں دشواری ہوتی تھی، GUI میں ڈیٹا ہمیشہ درست طریقے سے ظاہر نہیں ہوتا تھا (حالانکہ میں اب بھی کارکردگی کے گراف کی نمائش سے خوش نہیں ہوں۔ )، کبھی کبھی ورچوئلائزیشن کے ساتھ انٹرفیس میں مسائل پیدا ہوتے ہیں۔

اب بچپن کے تمام مسائل حل کر دیے گئے ہیں، HyperFlex ESXi اور Hyper-V دونوں کو ہینڈل کر سکتا ہے، اس کے علاوہ یہ ممکن ہے:

  1. ایک پھیلا ہوا کلسٹر بنانا۔
  2. دو سے چار نوڈس تک (ہم صرف سرور خریدتے ہیں) فیبرک انٹرکنیکٹ کا استعمال کیے بغیر دفاتر کے لیے کلسٹر بنانا۔
  3. بیرونی اسٹوریج سسٹم کے ساتھ کام کرنے کی صلاحیت۔
  4. کنٹینرز اور کبرنیٹس کے لیے سپورٹ۔
  5. دستیابی زونز کی تشکیل۔
  6. اگر بلٹ ان فعالیت تسلی بخش نہ ہو تو VMware SRM کے ساتھ انضمام۔

فن تعمیر اس کے اہم حریفوں کے حل سے زیادہ مختلف نہیں ہے؛ انہوں نے سائیکل نہیں بنائی۔ یہ سب VMware یا Hyper-V ورچوئلائزیشن پلیٹ فارم پر چلتا ہے۔ ہارڈ ویئر کی میزبانی ملکیتی Cisco UCS سرورز پر کی جاتی ہے۔ وہ لوگ ہیں جو ابتدائی سیٹ اپ کی نسبتا پیچیدگی، بہت سارے بٹن، ٹیمپلیٹس اور انحصار کا ایک غیر معمولی نظام کے لیے پلیٹ فارم سے نفرت کرتے ہیں، لیکن ایسے لوگ بھی ہیں جنہوں نے زین سیکھا ہے، وہ اس خیال سے متاثر ہیں اور اب نہیں چاہتے۔ دوسرے سرورز کے ساتھ کام کرنا۔

ہم VMware کے حل پر غور کریں گے، کیونکہ حل اصل میں اس کے لیے بنایا گیا تھا اور اس میں زیادہ فعالیت ہے؛ Hyper-V کو حریفوں کے ساتھ رہنے اور مارکیٹ کی توقعات کو پورا کرنے کے لیے راستے میں شامل کیا گیا تھا۔

ڈسکوں سے بھرے سرورز کا ایک جھرمٹ ہے۔ ڈیٹا اسٹوریج کے لیے ڈسکیں ہیں (SSD یا HDD - آپ کے ذوق اور ضروریات کے مطابق)، کیشنگ کے لیے ایک SSD ڈسک ہے۔ ڈیٹا سٹور پر ڈیٹا لکھتے وقت، ڈیٹا کو کیشنگ لیئر پر محفوظ کیا جاتا ہے (SSD ڈسک اور سروس VM کی RAM)۔ متوازی طور پر، ڈیٹا کا ایک بلاک کلسٹر میں نوڈس کو بھیجا جاتا ہے (نوڈس کی تعداد کلسٹر ریپلیکشن فیکٹر پر منحصر ہوتی ہے)۔ کامیاب ریکارڈنگ کے بارے میں تمام نوڈس سے تصدیق کے بعد، ریکارڈنگ کی تصدیق ہائپر وائزر اور پھر VM کو بھیجی جاتی ہے۔ ریکارڈ شدہ ڈیٹا کو ڈپلیکیٹ، کمپریسڈ اور بیک گراؤنڈ میں اسٹوریج ڈسک پر لکھا جاتا ہے۔ ایک ہی وقت میں، اسٹوریج ڈسکوں پر ہمیشہ ایک بڑا بلاک لکھا جاتا ہے اور ترتیب وار، جس سے اسٹوریج ڈسکوں پر بوجھ کم ہوتا ہے۔

ڈپلیکیشن اور کمپریشن ہمیشہ فعال ہوتے ہیں اور انہیں غیر فعال نہیں کیا جا سکتا۔ ڈیٹا کو براہ راست سٹوریج ڈسک سے یا رام کیش سے پڑھا جاتا ہے۔ اگر ایک ہائبرڈ کنفیگریشن استعمال کی جاتی ہے، تو SSD پر ریڈز بھی کیش ہو جاتی ہیں۔

ڈیٹا ورچوئل مشین کے موجودہ مقام سے منسلک نہیں ہے اور نوڈس کے درمیان یکساں طور پر تقسیم کیا جاتا ہے۔ یہ نقطہ نظر آپ کو تمام ڈسکوں اور نیٹ ورک انٹرفیس کو یکساں طور پر لوڈ کرنے کی اجازت دیتا ہے۔ اس کا ایک واضح نقصان ہے: ہم پڑھنے میں تاخیر کو زیادہ سے زیادہ کم نہیں کر سکتے، کیونکہ مقامی طور پر ڈیٹا کی دستیابی کی کوئی ضمانت نہیں ہے۔ لیکن میرا ماننا ہے کہ حاصل کردہ فوائد کے مقابلے میں یہ معمولی قربانی ہے۔ مزید برآں، نیٹ ورک کی تاخیر اس قدر تک پہنچ گئی ہے کہ وہ مجموعی طور پر نتیجہ پر اثر انداز نہیں ہوتے۔

ایک خصوصی سروس VM Cisco HyperFlex ڈیٹا پلیٹ فارم کنٹرولر، جو ہر سٹوریج نوڈ پر بنایا جاتا ہے، ڈسک سب سسٹم کے پورے آپریشن منطق کے لیے ذمہ دار ہے۔ ہماری سروس VM کنفیگریشن میں، آٹھ vCPUs اور 72 GB RAM مختص کی گئی تھی، جو اتنی کم نہیں ہے۔ میں آپ کو یاد دلاتا ہوں کہ میزبان کے پاس ہی 28 فزیکل کور اور 512 جی بی ریم ہے۔

سروس VM کو براہ راست SAS کنٹرولر کو VM پر بھیج کر فزیکل ڈسک تک رسائی حاصل ہے۔ ہائپر وائزر کے ساتھ مواصلت ایک خاص ماڈیول IOVisor کے ذریعے ہوتی ہے، جو I/O آپریشنز کو روکتا ہے، اور ایسے ایجنٹ کا استعمال کرتا ہے جو آپ کو ہائپر وائزر API کو کمانڈ بھیجنے کی اجازت دیتا ہے۔ ایجنٹ HyperFlex سنیپ شاٹس اور کلون کے ساتھ کام کرنے کا ذمہ دار ہے۔

ڈسک کے وسائل ہائپر وائزر میں NFS یا SMB شیئرز کے طور پر لگائے جاتے ہیں (ہائپر وائزر کی قسم پر منحصر ہے، اندازہ لگائیں کہ کون سا کہاں ہے)۔ اور ہڈ کے نیچے، یہ ایک تقسیم شدہ فائل سسٹم ہے جو آپ کو بالغوں کے مکمل اسٹوریج سسٹم کی خصوصیات شامل کرنے کی اجازت دیتا ہے: پتلی والیوم ایلوکیشن، کمپریشن اور ڈیڈپلیکیشن، ری ڈائریکٹ آن رائٹ ٹیکنالوجی کا استعمال کرتے ہوئے اسنیپ شاٹس، سنکرونس/ایسینکرونس ریپلیکیشن۔

سروس VM HyperFlex سب سسٹم کے WEB مینجمنٹ انٹرفیس تک رسائی فراہم کرتی ہے۔ vCenter کے ساتھ انضمام ہے، اور زیادہ تر روزمرہ کے کام اس سے انجام دیئے جاسکتے ہیں، لیکن ڈیٹا اسٹورز، مثال کے طور پر، اگر آپ پہلے ہی تیز رفتار HTML5 انٹرفیس پر سوئچ کر چکے ہیں، یا ایک مکمل فلیش کلائنٹ استعمال کر چکے ہیں تو علیحدہ ویب کیم سے کاٹنا زیادہ آسان ہے۔ مکمل انضمام کے ساتھ۔ سروس ویب کیم میں آپ سسٹم کی کارکردگی اور تفصیلی اسٹیٹس دیکھ سکتے ہیں۔

ہاتھ کے بغیر ایڈمن = ہائپر کنورجنس؟

ایک کلسٹر میں نوڈ کی ایک اور قسم ہے - کمپیوٹنگ نوڈس۔ یہ بلٹ ان ڈسک کے بغیر ریک یا بلیڈ سرور ہوسکتے ہیں۔ یہ سرور VM چلا سکتے ہیں جن کا ڈیٹا ڈسک والے سرورز پر محفوظ ہے۔ ڈیٹا تک رسائی کے نقطہ نظر سے، نوڈس کی اقسام میں کوئی فرق نہیں ہے، کیونکہ فن تعمیر میں ڈیٹا کے جسمانی مقام سے تجرید شامل ہوتا ہے۔ کمپیوٹنگ نوڈس اور اسٹوریج نوڈس کا زیادہ سے زیادہ تناسب 2:1 ہے۔

کمپیوٹ نوڈس کا استعمال کلسٹر وسائل کی پیمائش کرتے وقت لچک کو بڑھاتا ہے: اگر ہمیں صرف CPU/RAM کی ضرورت ہو تو ہمیں ڈسک کے ساتھ اضافی نوڈس خریدنے کی ضرورت نہیں ہے۔ اس کے علاوہ، ہم بلیڈ کیج شامل کر سکتے ہیں اور سرورز کے ریک پلیسمنٹ پر بچت کر سکتے ہیں۔

نتیجے کے طور پر، ہمارے پاس درج ذیل خصوصیات کے ساتھ ایک ہائپر کنورجڈ پلیٹ فارم ہے:

  • ایک کلسٹر میں 64 نوڈس تک (32 اسٹوریج نوڈس تک)۔
  • ایک کلسٹر میں نوڈس کی کم از کم تعداد تین ہے (ایک کنارے کے کلسٹر کے لیے دو)۔
  • ڈیٹا ریڈنڈنسی میکانزم: نقل کے عنصر 2 اور 3 کے ساتھ عکس بندی۔
  • میٹرو کلسٹر۔
  • دوسرے HyperFlex کلسٹر میں غیر مطابقت پذیر VM نقل۔
  • VMs کو ریموٹ ڈیٹا سینٹر میں تبدیل کرنے کا آرکیسٹریشن۔
  • ری ڈائریکٹ آن رائٹ ٹیکنالوجی کا استعمال کرتے ہوئے مقامی سنیپ شاٹس۔
  • نقل کے عنصر 1 پر 3 PB تک قابل استعمال جگہ اور بغیر نقل کے۔ ہم نقل کے عنصر 2 کو مدنظر نہیں رکھتے، کیونکہ یہ سنجیدہ فروخت کا آپشن نہیں ہے۔

ایک اور بڑا پلس انتظام اور تعیناتی میں آسانی ہے۔ UCS سرور قائم کرنے کی تمام پیچیدگیوں کا خیال سسکو انجینئرز کے ذریعہ تیار کردہ خصوصی VM کے ذریعہ لیا جاتا ہے۔

ٹیسٹ بینچ ترتیب:

  • 2 x Cisco UCS Fabric Interconnect 6248UP بطور مینجمنٹ کلسٹر اور نیٹ ورک اجزاء (48 پورٹس ایتھرنیٹ 10G/FC 16G موڈ میں کام کر رہے ہیں)۔
  • چار سسکو UCS HXAF240 M4 سرورز۔

سرور کی خصوصیات:

CPU

2 x Intel® Xeon® E5-2690 v4

RAM

16 x 32GB DDR4-2400-MHz RDIMM/PC4-19200/dual rank/x4/1.2v

نیٹ ورک

UCSC-MLOM-CSC-02 (VIC 1227)۔ 2 10G ایتھرنیٹ پورٹس

اسٹوریج HBA

Cisco 12G ماڈیولر SAS کنٹرولر سے گزرتا ہے۔

اسٹوریج ڈسکیں۔

1 x SSD Intel S3520 120 GB، 1 x SSD Samsung MZ-IES800D، 10 x SSD Samsung PM863a 960 GB

مزید ترتیب کے اختیاراتمنتخب ہارڈویئر کے علاوہ، فی الحال درج ذیل اختیارات دستیاب ہیں:

  • HXAF240c M5۔
  • Intel Silver 4110 سے Intel Platinum I8260Y تک ایک یا دو CPUs۔ دوسری نسل دستیاب ہے۔
  • 24 میموری سلاٹس، 16 GB RDIMM 2600 سے 128 GB LRDIMM 2933 تک سٹرپس۔
  • 6 سے 23 ڈیٹا ڈسک، ایک کیشنگ ڈسک، ایک سسٹم ڈسک اور ایک بوٹ ڈسک۔

صلاحیت ڈرائیوز

  • HX-SD960G61X-EV 960GB 2.5 انچ انٹرپرائز ویلیو 6G SATA SSD (1X برداشت) SAS 960 GB۔
  • HX-SD38T61X-EV 3.8TB 2.5 انچ انٹرپرائز ویلیو 6G SATA SSD (1X برداشت) SAS 3.8 TB۔
  • کیشنگ ڈرائیوز
  • HX-NVMEXPB-I375 375GB 2.5 انچ Intel Optane Drive، Extreme Perf & Endurance۔
  • HX-NVMEHW-H1600* 1.6TB 2.5 انچ Ent۔ پرف NVMe SSD (3X برداشت) NVMe 1.6 TB۔
  • HX-SD400G12TX-EP 400GB 2.5 انچ Ent۔ پرف 12G SAS SSD (10X برداشت) SAS 400 GB۔
  • HX-SD800GBENK9** 800GB 2.5 انچ Ent۔ پرف 12G SAS SED SSD (10X برداشت) SAS 800 GB۔
  • HX-SD16T123X-EP 1.6TB 2.5 انچ انٹرپرائز پرفارمنس 12G SAS SSD (3X برداشت)۔

سسٹم/لاگ ڈرائیوز

  • HX-SD240GM1X-EV 240GB 2.5 انچ انٹرپرائز ویلیو 6G SATA SSD (اپ گریڈ کی ضرورت ہے)۔

بوٹ ڈرائیوز

  • HX-M2-240GB 240GB SATA M.2 SSD SATA 240 GB۔

40G، 25G یا 10G ایتھرنیٹ پورٹس کے ذریعے نیٹ ورک سے جڑیں۔

FI HX-FI-6332 (40G)، HX-FI-6332-16UP (40G)، HX-FI-6454 (40G/100G) ہو سکتا ہے۔

ٹیسٹ خود

ڈسک سب سسٹم کو جانچنے کے لیے، میں نے HCIBench 2.2.1 استعمال کیا۔ یہ ایک مفت افادیت ہے جو آپ کو متعدد ورچوئل مشینوں سے بوجھ کی تخلیق کو خودکار کرنے کی اجازت دیتی ہے۔ بوجھ بذات خود معمول کے فائیو سے پیدا ہوتا ہے۔

ہمارا کلسٹر چار نوڈس پر مشتمل ہے، ریپلیکیشن فیکٹر 3، تمام ڈسکیں فلیش ہیں۔

جانچ کے لیے، میں نے چار ڈیٹا اسٹورز اور آٹھ ورچوئل مشینیں بنائیں۔ تحریری ٹیسٹ کے لیے، یہ فرض کیا جاتا ہے کہ کیشنگ ڈسک بھری ہوئی نہیں ہے۔

ٹیسٹ کے نتائج درج ذیل ہیں:

100% پڑھیں 100% بے ترتیب

0% پڑھیں 100% بے ترتیب

بلاک/قطار کی گہرائی

128

256

512

1024

2048

128

256

512

1024

2048

4K

0,59 ms 213804 IOPS

0,84 ms 303540 IOPS

1,36ms 374348 IOPS

2.47 ms 414116 IOPS

4,86ms 420180 IOPS

2,22 ms 57408 IOPS

3,09 ms 82744 IOPS

5,02 ms 101824 IPOS

8,75 ms 116912 IOPS

17,2 ms 118592 IOPS

8K

0,67 ms 188416 IOPS

0,93 ms 273280 IOPS

1,7 ms 299932 IOPS

2,72 ms 376,484 IOPS

5,47 ms 373,176 IOPS

3,1 ms 41148 IOPS

4,7 ms 54396 IOPS

7,09 ms 72192 IOPS

12,77 ms 80132 IOPS

16K

0,77 ms 164116 IOPS

1,12 ms 228328 IOPS

1,9 ms 268140 IOPS

3,96 ms 258480 IOPS

3,8 ms 33640 IOPS

6,97 ms 36696 IOPS

11,35 ms 45060 IOPS

32K

1,07 ms 119292 IOPS

1,79 ms 142888 IOPS

3,56 ms 143760 IOPS

7,17 ms 17810 IOPS

11,96 ms 21396 IOPS

64K

1,84 ms 69440 IOPS

3,6 ms 71008 IOPS

7,26 ms 70404 IOPS

11,37 ms 11248 IOPS

بولڈ ان اقدار کی نشاندہی کرتا ہے جس کے بعد پیداوار میں کوئی اضافہ نہیں ہوتا، بعض اوقات تنزلی بھی نظر آتی ہے۔ یہ اس حقیقت کی وجہ سے ہے کہ ہم نیٹ ورک/کنٹرولرز/ڈسک کی کارکردگی سے محدود ہیں۔

  • ترتیب وار پڑھنا 4432 MB/s۔
  • ترتیب وار تحریر 804 MB/s۔
  • اگر ایک کنٹرولر ناکام ہوجاتا ہے (ورچوئل مشین یا میزبان کی ناکامی)، کارکردگی میں کمی دوگنا ہے۔
  • اگر سٹوریج ڈسک ناکام ہو جاتی ہے، تو ڈرا ڈاؤن 1/3 ہے۔ ڈسک کی تعمیر نو ہر کنٹرولر کے وسائل کا 5٪ لیتی ہے۔

ایک چھوٹے بلاک پر، ہم کنٹرولر (ورچوئل مشین) کی کارکردگی سے محدود ہیں، اس کا CPU 100% لوڈ ہوتا ہے، اور جب بلاک بڑھتا ہے، تو ہم پورٹ بینڈوتھ کے ذریعے محدود ہو جاتے ہیں۔ AllFlash سسٹم کی صلاحیت کو کھولنے کے لیے 10 Gbps کافی نہیں ہے۔ بدقسمتی سے، فراہم کردہ ڈیمو اسٹینڈ کے پیرامیٹرز ہمیں 40 Gbit/s پر آپریشن کی جانچ کرنے کی اجازت نہیں دیتے ہیں۔

ٹیسٹوں اور فن تعمیر کا مطالعہ کرنے سے میرے تاثرات میں، الگورتھم کی وجہ سے جو تمام میزبانوں کے درمیان ڈیٹا رکھتا ہے، ہمیں قابل توسیع، قابل پیشن گوئی کارکردگی ملتی ہے، لیکن پڑھتے وقت یہ بھی ایک حد ہوتی ہے، کیونکہ مقامی ڈسکوں سے زیادہ نچوڑنا ممکن ہوتا ہے، یہاں یہ زیادہ پیداواری نیٹ ورک کو بچا سکتا ہے، مثال کے طور پر، FI 40 Gbit/s پر دستیاب ہے۔

نیز، کیشنگ اور ڈپلیکیشن کے لیے ایک ڈسک ایک حد ہوسکتی ہے؛ درحقیقت، اس ٹیسٹ بیڈ میں ہم چار SSD ڈسکوں پر لکھ سکتے ہیں۔ کیشنگ ڈرائیوز کی تعداد بڑھانے اور فرق دیکھنے کے قابل ہونا بہت اچھا ہوگا۔

حقیقی استعمال

بیک اپ ڈیٹا سینٹر کو منظم کرنے کے لیے، آپ دو طریقے استعمال کر سکتے ہیں (ہم دور دراز سائٹ پر بیک اپ رکھنے پر غور نہیں کرتے):

  1. فعال-غیر فعال۔ تمام ایپلیکیشنز مرکزی ڈیٹا سینٹر میں ہوسٹ کی جاتی ہیں۔ نقل ہم وقت ساز یا غیر مطابقت پذیر ہے۔ اگر مرکزی ڈیٹا سینٹر ناکام ہوجاتا ہے، تو ہمیں بیک اپ والے کو چالو کرنے کی ضرورت ہے۔ یہ دستی طور پر کیا جا سکتا ہے/اسکرپٹس/آرکیسٹریشن ایپلی کیشنز۔ یہاں ہمیں نقل کی فریکوئنسی کے مطابق ایک RPO ملے گا، اور RTO کا انحصار منتظم کے ردعمل اور مہارت اور سوئچنگ پلان کی ترقی/ڈیبگنگ کے معیار پر ہے۔
  2. فعال-فعال۔ اس صورت میں، صرف مطابقت پذیر نقل ہے؛ ڈیٹا سینٹرز کی دستیابی کا تعین ایک کورم/ثالث کے ذریعے کیا جاتا ہے جو سختی سے تیسری سائٹ پر واقع ہوتا ہے۔ RPO = 0، اور RTO 0 تک پہنچ سکتا ہے (اگر درخواست اجازت دیتی ہے) یا ورچوئلائزیشن کلسٹر میں نوڈ کے فیل اوور ٹائم کے برابر۔ ورچوئلائزیشن کی سطح پر، ایک کھینچا ہوا (میٹرو) کلسٹر بنایا جاتا ہے جس کے لیے ایکٹیو ایکٹو اسٹوریج کی ضرورت ہوتی ہے۔

عام طور پر ہم دیکھتے ہیں کہ کلائنٹس نے پہلے ہی مرکزی ڈیٹا سینٹر میں کلاسک اسٹوریج سسٹم کے ساتھ ایک فن تعمیر کو لاگو کیا ہے، لہذا ہم نقل کے لیے ایک اور ڈیزائن کرتے ہیں۔ جیسا کہ میں نے ذکر کیا، سسکو ہائپر فلیکس غیر مطابقت پذیر نقل اور اسٹریچڈ ورچوئلائزیشن کلسٹر تخلیق پیش کرتا ہے۔ ساتھ ہی، ہمیں دو اسٹوریج سسٹمز پر مہنگے ریپلیکیشن فنکشنز اور ایکٹیو ایکٹیو ڈیٹا تک رسائی کے ساتھ مڈرینج لیول اور اس سے زیادہ کے مخصوص اسٹوریج سسٹم کی ضرورت نہیں ہے۔

منظر نامہ 1: ہمارے پاس پرائمری اور بیک اپ ڈیٹا سینٹرز ہیں، VMware vSphere پر ایک ورچوئلائزیشن پلیٹ فارم۔ تمام پیداواری نظام مرکزی ڈیٹا سینٹر میں واقع ہیں، اور ورچوئل مشینوں کی نقل ہائپر وائزر کی سطح پر کی جاتی ہے، یہ بیک اپ ڈیٹا سینٹر میں VMs کو آن رکھنے سے بچ جائے گا۔ ہم بلٹ ان ٹولز کا استعمال کرتے ہوئے ڈیٹا بیس اور خصوصی ایپلی کیشنز کی نقل تیار کرتے ہیں اور VMs کو آن رکھتے ہیں۔ اگر مرکزی ڈیٹا سینٹر ناکام ہوجاتا ہے، تو ہم بیک اپ ڈیٹا سینٹر میں سسٹمز لانچ کرتے ہیں۔ ہمیں یقین ہے کہ ہمارے پاس تقریباً 100 ورچوئل مشینیں ہیں۔ جب پرائمری ڈیٹا سینٹر کام کر رہا ہے، اسٹینڈ بائی ڈیٹا سینٹر ٹیسٹ کے ماحول اور دوسرے سسٹمز چلا سکتا ہے جو پرائمری ڈیٹا سینٹر کے بدل جانے پر بند ہو سکتے ہیں۔ یہ بھی ممکن ہے کہ ہم دو طرفہ نقل استعمال کریں۔ ہارڈ ویئر کے نقطہ نظر سے، کچھ بھی نہیں بدلے گا۔

کلاسیکی فن تعمیر کے معاملے میں، ہم ہر ڈیٹا سینٹر میں ایک ہائبرڈ اسٹوریج سسٹم انسٹال کریں گے جس میں FibreChannel، ٹائرنگ، ڈیڈپلیکیشن اور کمپریشن (لیکن آن لائن نہیں)، ہر سائٹ کے لیے 8 سرورز، 2 FibreChannel سوئچز اور 10G ایتھرنیٹ کے ذریعے رسائی ہوگی۔ ایک کلاسک فن تعمیر میں نقل اور سوئچنگ کے انتظام کے لیے، ہم VMware ٹولز (Replication + SRM) یا تھرڈ پارٹی ٹولز استعمال کر سکتے ہیں، جو تھوڑا سستا اور بعض اوقات زیادہ آسان ہوگا۔

تصویر خاکہ دکھاتی ہے۔

ہاتھ کے بغیر ایڈمن = ہائپر کنورجنس؟

Cisco HyperFlex استعمال کرتے وقت، درج ذیل فن تعمیر حاصل کیا جاتا ہے:

ہاتھ کے بغیر ایڈمن = ہائپر کنورجنس؟

HyperFlex کے لیے، میں نے بڑے CPU/RAM وسائل والے سرورز استعمال کیے، کیونکہ... کچھ وسائل HyperFlex کنٹرولر VM کے پاس جائیں گے؛ CPU اور میموری کے لحاظ سے، میں نے HyperFlex کنفیگریشن کو بھی تھوڑا سا دوبارہ ترتیب دیا ہے تاکہ Cisco کے ساتھ نہ چل سکے اور باقی VMs کے لیے وسائل کی ضمانت دوں۔ لیکن ہم FibreChannel سوئچز کو ترک کر سکتے ہیں، اور ہمیں ہر سرور کے لیے ایتھرنیٹ پورٹس کی ضرورت نہیں ہوگی؛ مقامی ٹریفک کو FI کے اندر تبدیل کیا جاتا ہے۔

نتیجہ ہر ڈیٹا سینٹر کے لیے درج ذیل ترتیب تھا:

سرورز

8 x 1U سرور (384 GB RAM، 2 x Intel Gold 6132, FC HBA)

8 x HX240C-M5L (512 GB RAM, 2 x Intel Gold 6150, 3,2 GB SSD, 10 x 6 TB NL-SAS)

ایس ایچ ڈی

FC فرنٹ اینڈ کے ساتھ ہائبرڈ اسٹوریج سسٹم (20TB SSD، 130 TB NL-SAS)

-

LAN

2 ایکس ایتھرنیٹ سوئچ 10 جی 12 پورٹس

-

SAN

2 ایکس ایف سی سوئچ 32/16 جی بی 24 پورٹس

2 x Cisco UCS FI 6332

لائسنس

VMware Ent Plus

VM سوئچنگ کی نقل اور/یا آرکیسٹریشن

VMware Ent Plus

میں نے Hyperflex کے لیے ریپلیکیشن سافٹ ویئر لائسنس فراہم نہیں کیے، کیونکہ یہ ہمارے لیے باکس سے باہر دستیاب ہے۔

کلاسیکی فن تعمیر کے لیے، میں نے ایک وینڈر کا انتخاب کیا جس نے خود کو ایک اعلیٰ معیار اور سستے صنعت کار کے طور پر قائم کیا ہے۔ دونوں اختیارات کے لیے، میں نے ایک مخصوص حل کے لیے معیاری رعایت کا اطلاق کیا، اور اس کے نتیجے میں مجھے حقیقی قیمتیں موصول ہوئیں۔

Cisco HyperFlex حل 13% سستا نکلا۔

منظر نامہ 2: دو فعال ڈیٹا سینٹرز کی تخلیق۔ اس منظر نامے میں، ہم VMware پر ایک پھیلا ہوا کلسٹر ڈیزائن کر رہے ہیں۔

کلاسک فن تعمیر ورچوئلائزیشن سرورز، ایک SAN (FC پروٹوکول) اور دو اسٹوریج سسٹمز پر مشتمل ہے جو ان کے درمیان پھیلے ہوئے حجم کو پڑھ اور لکھ سکتے ہیں۔ ہر سٹوریج سسٹم پر ہم ذخیرہ کرنے کے لیے ایک کارآمد صلاحیت رکھتے ہیں۔

ہاتھ کے بغیر ایڈمن = ہائپر کنورجنس؟

HyperFlex میں ہم دونوں سائٹس پر یکساں نوڈس کے ساتھ ایک اسٹریچ کلسٹر بناتے ہیں۔ اس صورت میں، 2+2 کا ایک نقلی عنصر استعمال کیا جاتا ہے۔

ہاتھ کے بغیر ایڈمن = ہائپر کنورجنس؟

نتیجہ مندرجہ ذیل ترتیب ہے:

کلاسیکی فن تعمیر

ہائپر فلیکس

سرورز

16 x 1U سرور (384 GB RAM، 2 x Intel Gold 6132, FC HBA, 2 x 10G NIC)

16 x HX240C-M5L (512 GB RAM, 2 x Intel Gold 6132, 1,6 TB NVMe, 12 x 3,8 TB SSD, VIC 1387)

ایس ایچ ڈی

2 x آل فلیش اسٹوریج سسٹم (150 TB SSD)

-

LAN

4 ایکس ایتھرنیٹ سوئچ 10 جی 24 پورٹس

-

SAN

4 ایکس ایف سی سوئچ 32/16 جی بی 24 پورٹس

4 x Cisco UCS FI 6332

لائسنس

VMware Ent Plus

VMware Ent Plus

تمام حسابات میں، میں نے نیٹ ورک کے بنیادی ڈھانچے، ڈیٹا سینٹر کے اخراجات وغیرہ کو مدنظر نہیں رکھا: وہ کلاسیکی فن تعمیر اور HyperFlex حل کے لیے ایک جیسے ہوں گے۔

لاگت کے لحاظ سے، HyperFlex 5% زیادہ مہنگا نکلا۔ یہاں یہ بات قابل غور ہے کہ CPU/RAM وسائل کے لحاظ سے میرے پاس Cisco کے لیے ایک جھٹکا تھا، کیونکہ کنفیگریشن میں میں نے میموری کنٹرولر چینلز کو یکساں طور پر بھر دیا تھا۔ لاگت قدرے زیادہ ہے، لیکن شدت کے حکم سے نہیں، جو واضح طور پر اس بات کی نشاندہی کرتی ہے کہ ہائپر کنورجنسی ضروری طور پر "امیروں کے لیے کھلونا" نہیں ہے، لیکن ڈیٹا سینٹر بنانے کے لیے معیاری نقطہ نظر کا مقابلہ کر سکتی ہے۔ یہ ان لوگوں کے لیے بھی دلچسپی کا باعث ہو سکتا ہے جن کے پاس پہلے سے ہی Cisco UCS سرورز اور ان کے لیے متعلقہ بنیادی ڈھانچہ موجود ہے۔

فوائد میں سے، ہمیں SAN اور سٹوریج سسٹم کے انتظام کے اخراجات، آن لائن کمپریشن اور ڈپلیکیشن، سپورٹ کے لیے ایک ہی انٹری پوائنٹ (ورچوئلائزیشن، سرورز، وہ اسٹوریج سسٹمز بھی ہیں)، جگہ کی بچت (لیکن تمام منظرناموں میں نہیں) کی عدم موجودگی، آپریشن کو آسان بنانا.

جہاں تک سپورٹ کا تعلق ہے، یہاں آپ اسے ایک وینڈر - سسکو سے حاصل کرتے ہیں۔ Cisco UCS سرورز کے ساتھ میرے تجربے کو دیکھتے ہوئے، مجھے یہ پسند ہے؛ مجھے اسے HyperFlex پر کھولنے کی ضرورت نہیں تھی، سب کچھ ایک جیسا کام کرتا تھا۔ انجینئر فوری طور پر جواب دیتے ہیں اور نہ صرف عام مسائل کو حل کر سکتے ہیں بلکہ پیچیدہ ایج کیسز بھی۔ کبھی کبھی میں سوالوں کے ساتھ ان کی طرف متوجہ ہوتا ہوں: "کیا ایسا کرنا ممکن ہے، اس پر پیچ کرو؟" یا "میں نے یہاں کچھ کنفیگر کیا ہے، اور یہ کام نہیں کرنا چاہتا ہے۔ مدد!" - وہ صبر سے وہاں ضروری گائیڈ تلاش کریں گے اور درست اقدامات کی نشاندہی کریں گے؛ وہ جواب نہیں دیں گے: "ہم صرف ہارڈ ویئر کے مسائل حل کرتے ہیں۔"

حوالہ جات

ماخذ: www.habr.com

نیا تبصرہ شامل کریں