غلطی برداشت کرنے والے آئی ٹی انفراسٹرکچر کی تشکیل۔ حصہ 1 - ایک oVirt 4.3 کلسٹر تعینات کرنے کی تیاری

قارئین کو مدعو کیا جاتا ہے کہ وہ ایک ہی ڈیٹا سینٹر کے اندر ایک چھوٹے کاروبار کے لیے غلطی برداشت کرنے والے بنیادی ڈھانچے کی تعمیر کے اصولوں سے واقف ہوں، جس پر مضامین کی ایک مختصر سیریز میں تفصیل سے بات کی جائے گی۔

تعارف

کے تحت ڈیٹا سینٹر (ڈیٹا پروسیسنگ سینٹر) کو اس طرح سمجھا جا سکتا ہے:

  • انٹرپرائز کے احاطے میں آپ کے اپنے "سرور روم" میں آپ کا اپنا ریک، جو بجلی کی فراہمی اور آلات کو ٹھنڈا کرنے کے لیے کم از کم ضروریات کو پورا کرتا ہے، اور دو آزاد فراہم کنندگان کے ذریعے انٹرنیٹ تک رسائی بھی رکھتا ہے۔
  • اپنے سامان کے ساتھ ایک کرائے کا ریک، جو ایک حقیقی ڈیٹا سینٹر میں واقع ہے - نام نہاد۔ تال میل، جو ٹائر III یا IV کے معیار کی تعمیل کرتا ہے، اور جو قابل اعتماد بجلی کی فراہمی، کولنگ اور غلطی سے برداشت کرنے والے انٹرنیٹ تک رسائی کی ضمانت دیتا ہے۔
  • ٹائر III یا IV ڈیٹا سینٹر میں مکمل طور پر کرائے کا سامان۔

رہائش کا کون سا اختیار منتخب کرنا ہے ہر معاملے میں انفرادی ہے، اور عام طور پر کئی اہم عوامل پر منحصر ہے:

  • ایک انٹرپرائز کو اپنے آئی ٹی انفراسٹرکچر کی ضرورت کیوں ہے؟
  • انٹرپرائز آئی ٹی انفراسٹرکچر سے بالکل کیا چاہتا ہے (اعتماد، اسکیل ایبلٹی، انتظامی قابلیت، وغیرہ)؛
  • آئی ٹی انفراسٹرکچر میں ابتدائی سرمایہ کاری کا حجم، نیز اس کے لیے کس قسم کے اخراجات - سرمایہ (جس کا مطلب ہے کہ آپ اپنا سامان خریدتے ہیں)، یا آپریشنل (سامان عام طور پر کرائے پر لیا جاتا ہے)؛
  • خود انٹرپرائز کے افق کی منصوبہ بندی.

انٹرپرائز کے آئی ٹی انفراسٹرکچر بنانے اور استعمال کرنے کے فیصلے کو متاثر کرنے والے عوامل کے بارے میں بہت کچھ لکھا جا سکتا ہے، لیکن ہمارا مقصد عملی طور پر یہ دکھانا ہے کہ اس بنیادی ڈھانچے کو کیسے بنایا جائے تاکہ یہ غلطی برداشت کرنے والا ہو اور پیسے کی بچت بھی کر سکے۔ تجارتی سافٹ ویئر خریدنے کی لاگت، یا ان سے مکمل پرہیز کریں۔

جیسا کہ طویل مدتی مشق سے پتہ چلتا ہے، یہ ہارڈ ویئر پر بچت کے قابل نہیں ہے، کیونکہ کنجوس دو بار ادا کرتا ہے، اور اس سے بھی زیادہ۔ لیکن ایک بار پھر، اچھا ہارڈ ویئر صرف ایک سفارش ہے، اور آخر میں بالکل کیا خریدنا ہے اور اس کا انحصار انٹرپرائز کی صلاحیتوں اور اس کے انتظام کے "لالچ" پر ہے۔ مزید برآں، لفظ "لالچ" کو لفظ کے اچھے معنوں میں سمجھنا چاہیے، کیونکہ ابتدائی مرحلے میں ہارڈ ویئر میں سرمایہ کاری کرنا بہتر ہے، تاکہ اس کی مزید مدد اور اسکیلنگ میں سنگین مسائل نہ ہوں، کیونکہ ابتدائی طور پر غلط منصوبہ بندی اور ضرورت سے زیادہ بچت منصوبے کو شروع کرنے کے مقابلے میں زیادہ لاگت کا باعث بن سکتی ہے۔

لہذا، منصوبے کے لئے ابتدائی اعداد و شمار:

  • ایک انٹرپرائز ہے جس نے اپنا ویب پورٹل بنانے اور اپنی سرگرمیوں کو انٹرنیٹ پر لانے کا فیصلہ کیا ہے۔
  • کمپنی نے ٹائر III معیار کے مطابق ایک اچھے ڈیٹا سینٹر میں اپنے سامان کو رکھنے کے لیے ایک ریک کرائے پر لینے کا فیصلہ کیا؛
  • کمپنی نے ہارڈ ویئر پر زیادہ بچت نہ کرنے کا فیصلہ کیا، اور اس لیے درج ذیل آلات کو توسیعی وارنٹی اور مدد کے ساتھ خریدا:

سامان کی فہرست

  • دو جسمانی Dell PowerEdge R640 سرورز مندرجہ ذیل ہیں:
  • دو Intel Xeon Gold 5120 پروسیسرز
  • 512 جی بی ریم
  • OS کی تنصیب کے لیے RAID1 میں دو SAS ڈسکیں۔
  • بلٹ ان 4-پورٹ 1G نیٹ ورک کارڈ
  • دو 2-پورٹ 10G نیٹ ورک کارڈ
  • ایک 2-پورٹ FC HBA 16G۔
  • 2-کنٹرولر سٹوریج سسٹم ڈیل MD3820f، FC 16G کے ذریعے براہ راست ڈیل میزبانوں سے منسلک؛
  • دو دوسرے درجے کے سوئچز - Cisco WS-C2960RX-48FPS-L اسٹیکڈ؛
  • دو تیسرے درجے کے سوئچز - Cisco WS-C3850-24T-E، اسٹیک شدہ؛
  • ریک، UPS، PDU، کنسول سرورز ڈیٹا سینٹر کے ذریعے فراہم کیے جاتے ہیں۔

جیسا کہ ہم دیکھتے ہیں، موجودہ سازوسامان میں افقی اور عمودی اسکیلنگ کے اچھے امکانات ہیں، اگر انٹرپرائز انٹرنیٹ پر اسی طرح کی پروفائل کی دوسری کمپنیوں کے ساتھ مقابلہ کرنے کے قابل ہو، اور منافع کمانا شروع کردے، جسے مزید مقابلے کے لیے وسائل کو بڑھانے میں سرمایہ کاری کی جاسکتی ہے۔ اور منافع میں اضافہ۔

اگر انٹرپرائز ہمارے کمپیوٹنگ کلسٹر کی کارکردگی کو بڑھانے کا فیصلہ کرتا ہے تو ہم کون سا سامان شامل کر سکتے ہیں:

  • ہمارے پاس 2960X سوئچز پر بندرگاہوں کی تعداد میں بڑا ذخیرہ ہے، جس کا مطلب ہے کہ ہم مزید ہارڈ ویئر سرورز شامل کر سکتے ہیں۔
  • اسٹوریج سسٹمز اور اضافی سرورز کو ان سے منسلک کرنے کے لیے دو اضافی FC سوئچ خریدیں۔
  • موجودہ سرورز کو اپ گریڈ کیا جا سکتا ہے - میموری شامل کریں، پروسیسر کو زیادہ طاقتور سے تبدیل کریں، موجودہ نیٹ ورک اڈاپٹر کا استعمال کرتے ہوئے 10G نیٹ ورک سے جڑیں؛
  • آپ مطلوبہ قسم کی ڈسک کے ساتھ اسٹوریج سسٹم میں اضافی ڈسک شیلف شامل کر سکتے ہیں - SAS، SATA یا SSD، منصوبہ بند بوجھ کے لحاظ سے؛
  • ایف سی سوئچز کو شامل کرنے کے بعد، آپ ڈسک کی گنجائش میں اضافہ کرنے کے لیے ایک اور سٹوریج سسٹم خرید سکتے ہیں، اور اگر آپ اس کے لیے ایک خاص ریموٹ ریپلیکشن آپشن خریدتے ہیں، تو آپ ایک ہی ڈیٹا سینٹر میں اور ڈیٹا سینٹرز کے درمیان اسٹوریج سسٹمز کے درمیان ڈیٹا ریپلیکشن سیٹ کر سکتے ہیں ( لیکن یہ پہلے ہی مضمون کے دائرہ کار سے باہر ہے)
  • تیسرے درجے کے سوئچز بھی ہیں - Cisco 3850، جو اندرونی نیٹ ورکس کے درمیان تیز رفتار روٹنگ کے لیے فالٹ ٹولرنٹ نیٹ ورک کور کے طور پر استعمال کیے جا سکتے ہیں۔ یہ مستقبل میں بہت مددگار ثابت ہوگا کیونکہ اندرونی انفراسٹرکچر بڑھتا ہے۔ 3850 میں 10G بندرگاہیں بھی ہیں، جو بعد میں آپ کے نیٹ ورک کے آلات کو 10G کی رفتار پر اپ گریڈ کرتے وقت استعمال کی جا سکتی ہیں۔

چونکہ اب ورچوئلائزیشن کے بغیر کہیں نہیں ہے، ہم یقیناً اس رجحان میں ہوں گے، خاص طور پر چونکہ انفرادی انفراسٹرکچر عناصر (ویب سرورز، ڈیٹا بیسز، وغیرہ) کے لیے مہنگے سرورز خریدنے کی لاگت کو کم کرنے کا یہ ایک بہترین طریقہ ہے، جو ہمیشہ نہیں ہوتے۔ کم بوجھ کی صورت میں زیادہ سے زیادہ استعمال کیا جاتا ہے، اور یہ بالکل وہی ہے جو پروجیکٹ کے آغاز کے آغاز میں ہوگا۔

اس کے علاوہ، ورچوئلائزیشن کے بہت سے دوسرے فوائد ہیں جو ہمارے لیے بہت کارآمد ثابت ہو سکتے ہیں: ہارڈ ویئر سرور کی ناکامی کے خلاف VM فالٹ ٹالرینس، ان کی دیکھ بھال کے لیے ہارڈویئر کلسٹر نوڈس کے درمیان لائیو ہجرت، کلسٹر نوڈس کے درمیان دستی یا خودکار بوجھ کی تقسیم وغیرہ۔

انٹرپرائز کی طرف سے خریدے گئے ہارڈ ویئر کے لیے، ایک انتہائی دستیاب VMware vSphere کلسٹر کی تعیناتی خود تجویز کرتی ہے، لیکن چونکہ VMware کا کوئی بھی سافٹ ویئر اس کے "گھوڑے" قیمت کے ٹیگز کے لیے جانا جاتا ہے، اس لیے ہم ورچوئلائزیشن کے انتظام کے لیے بالکل مفت سافٹ ویئر استعمال کریں گے۔ او ورٹ، جس کی بنیاد پر ایک معروف لیکن پہلے سے تجارتی مصنوعات تیار کی جاتی ہیں - آر ایچ ای وی.

обеспечение Программное او ورٹ انتہائی دستیاب ورچوئل مشینوں کے ساتھ آسانی سے کام کرنے کے قابل ہونے کے لیے بنیادی ڈھانچے کے تمام عناصر کو یکجا کرنا ضروری ہے - یہ ڈیٹا بیس، ویب ایپلیکیشنز، پراکسی سرورز، بیلنسرز، لاگز اور تجزیات جمع کرنے کے لیے سرورز وغیرہ ہیں۔ ہمارے انٹرپرائز کا ویب پورٹل پر مشتمل ہے۔

اس تعارف کا خلاصہ کرنے کے لیے، ہم مندرجہ ذیل مضامین کا انتظار کر سکتے ہیں، جو عملی طور پر یہ ظاہر کریں گے کہ کس طرح کسی انٹرپرائز کے پورے ہارڈ ویئر اور سافٹ ویئر کے بنیادی ڈھانچے کو تعینات کیا جائے:

مضامین کی فہرست

  • حصہ 1۔ ایک oVirt 4.3 کلسٹر تعینات کرنے کی تیاری۔
  • حصہ 2۔ oVirt 4.3 کلسٹر کو انسٹال اور کنفیگر کرنا۔
  • حصہ 3۔ ایک VyOS کلسٹر ترتیب دینا، غلطی برداشت کرنے والی بیرونی روٹنگ کو منظم کرنا۔
  • حصہ 4۔ ایک Cisco 3850 اسٹیک قائم کرنا، انٹرانیٹ روٹنگ کو منظم کرنا۔

حصہ 1۔ oVirt 4.3 کلسٹر تعینات کرنے کی تیاری

بنیادی میزبان سیٹ اپ

OS کو انسٹال کرنا اور کنفیگر کرنا سب سے آسان مرحلہ ہے۔ OS کو صحیح طریقے سے انسٹال اور کنفیگر کرنے کے بارے میں بہت سارے مضامین موجود ہیں، لہذا اس کے بارے میں کچھ خاص بتانے کی کوشش کرنے کا کوئی فائدہ نہیں ہے۔

لہذا، ہمارے پاس دو Dell PowerEdge R640 میزبان ہیں جن پر ہمیں OS کو انسٹال کرنے اور ابتدائی ترتیبات کو انجام دینے کی ضرورت ہے تاکہ انہیں oVirt 4.3 کلسٹر میں ورچوئل مشینوں کو چلانے کے لیے ہائپر وائزر کے طور پر استعمال کیا جا سکے۔

چونکہ ہم مفت غیر تجارتی oVirt سافٹ ویئر استعمال کرنے کا ارادہ رکھتے ہیں، OS کو میزبانوں کی تعیناتی کے لیے منتخب کیا گیا تھا۔ CentOS 7.7، اگرچہ دیگر OS کو میزبانوں پر oVirt کے لیے انسٹال کیا جا سکتا ہے:

  • RHEL پر مبنی ایک خصوصی تعمیر، نام نہاد۔ oVirt نوڈ;
  • OS اوریکل لینکس، موسم گرما 2019 یہ اعلان کیا گیا تھا اس پر oVirt کے کام کی حمایت کرنے کے بارے میں۔

OS انسٹال کرنے سے پہلے یہ تجویز کیا جاتا ہے:

  • دونوں میزبانوں پر iDRAC نیٹ ورک انٹرفیس کو ترتیب دیں۔
  • BIOS اور iDRAC فرم ویئر کو تازہ ترین ورژن میں اپ ڈیٹ کریں۔
  • سرور کے سسٹم پروفائل کو ترتیب دیں، ترجیحا پرفارمنس موڈ میں؛
  • سرور پر OS کو انسٹال کرنے کے لیے مقامی ڈسکوں سے RAID کو ترتیب دیں (RAID1 کی سفارش کی جاتی ہے)۔

پھر ہم iDRAC کے ذریعے پہلے بنائی گئی ڈسک پر OS انسٹال کرتے ہیں - انسٹالیشن کا عمل عام ہے، اس میں کوئی خاص لمحات نہیں ہیں۔ OS کی تنصیب شروع کرنے کے لیے سرور کنسول تک رسائی بھی iDRAC کے ذریعے حاصل کی جا سکتی ہے، حالانکہ کوئی بھی چیز آپ کو مانیٹر، کی بورڈ اور ماؤس کو براہ راست سرور سے منسلک کرنے اور فلیش ڈرائیو سے OS کو انسٹال کرنے سے نہیں روکتی ہے۔

OS کو انسٹال کرنے کے بعد، ہم اس کی ابتدائی ترتیبات کو انجام دیتے ہیں:

systemctl enable network.service
systemctl start network.service
systemctl status network.service

systemctl stop NetworkManager
systemctl disable NetworkManager
systemctl status NetworkManager

yum install -y ntp
systemctl enable ntpd.service
systemctl start ntpd.service

cat /etc/sysconfig/selinux
SELINUX=disabled
SELINUXTYPE=targeted

cat /etc/security/limits.conf
 *               soft    nofile         65536
 *               hard   nofile         65536

cat /etc/sysctl.conf
vm.max_map_count = 262144
vm.swappiness = 1

سافٹ ویئر کا ایک بنیادی سیٹ انسٹال کرنا

ابتدائی طور پر OS کو کنفیگر کرنے کے لیے، آپ کو سرور پر کسی بھی نیٹ ورک انٹرفیس کو کنفیگر کرنے کی ضرورت ہے تاکہ آپ OS کو اپ ڈیٹ کرنے اور ضروری سافٹ ویئر پیکجز کو انسٹال کرنے کے لیے انٹرنیٹ تک رسائی حاصل کر سکیں۔ یہ OS کی تنصیب کے عمل کے دوران اور اس کے بعد بھی کیا جا سکتا ہے۔

yum -y install epel-release
yum update
yum -y install bind-utils yum-utils net-tools git htop iotop nmon pciutils sysfsutils sysstat mc nc rsync wget traceroute gzip unzip telnet 

مندرجہ بالا تمام ترتیبات اور سافٹ ویئر سیٹ ذاتی ترجیح کا معاملہ ہیں، اور یہ سیٹ صرف ایک سفارش ہے۔

چونکہ ہمارا میزبان ایک ہائپر وائزر کا کردار ادا کرے گا، اس لیے ہم مطلوبہ کارکردگی پروفائل کو فعال کریں گے:

systemctl enable tuned 
systemctl start tuned 
systemctl status tuned 

tuned-adm profile 
tuned-adm profile virtual-host 

آپ یہاں پرفارمنس پروفائل کے بارے میں مزید پڑھ سکتے ہیں:باب 4. ٹیونڈ اور ٹیونڈ ایڈم".

OS انسٹال کرنے کے بعد، ہم اگلے حصے کی طرف بڑھتے ہیں - میزبانوں پر نیٹ ورک انٹرفیس اور Cisco 2960X سوئچز کا ایک اسٹیک۔

سسکو 2960X سوئچ اسٹیک کو ترتیب دینا

ہمارا پروجیکٹ درج ذیل نمبر VLANs کا استعمال کرے گا - یا براڈکاسٹ ڈومینز، ایک دوسرے سے الگ تھلگ، ٹریفک کی مختلف اقسام کو الگ کرنے کے لیے:

VLAN 10۔ - انٹرنیٹ
VLAN 17۔ - مینجمنٹ (iDRAC، اسٹوریج سسٹم، سوئچز کا انتظام)
VLAN 32۔ - VM پروڈکشن نیٹ ورک
VLAN 33۔ - انٹرکنکشن نیٹ ورک (بیرونی ٹھیکیداروں کو)
VLAN 34۔ - VM ٹیسٹ نیٹ ورک
VLAN 35۔ - VM ڈویلپر نیٹ ورک
VLAN 40۔ - مانیٹرنگ نیٹ ورک

کام شروع کرنے سے پہلے، یہاں L2 سطح پر ایک خاکہ ہے جس پر ہمیں بالآخر پہنچنا چاہیے:

غلطی برداشت کرنے والے آئی ٹی انفراسٹرکچر کی تشکیل۔ حصہ 1 - ایک oVirt 4.3 کلسٹر تعینات کرنے کی تیاری

oVirt میزبانوں اور ورچوئل مشینوں کے ایک دوسرے کے ساتھ نیٹ ورک کے تعامل کے ساتھ ساتھ ہمارے سٹوریج سسٹم کو منظم کرنے کے لیے، Cisco 2960X سوئچز کے اسٹیک کو ترتیب دینا ضروری ہے۔

ڈیل کے میزبانوں کے پاس بلٹ ان 4-پورٹ نیٹ ورک کارڈز ہیں، لہذا، یہ مشورہ دیا جاتا ہے کہ وہ سسکو 2960X سے اپنے کنکشن کو فالٹ ٹولرنٹ نیٹ ورک کنکشن کا استعمال کرتے ہوئے منظم کریں، فزیکل نیٹ ورک پورٹس کی گروپنگ کو منطقی انٹرفیس میں استعمال کرتے ہوئے، اور LACP پروٹوکول ( 802.3ad):

  • میزبان پر پہلی دو بندرگاہیں بانڈنگ موڈ میں ترتیب دی گئی ہیں اور 2960X سوئچ سے منسلک ہیں - یہ منطقی انٹرفیس ترتیب دیا جائے گا پل oVirt کلسٹر میں میزبان کے انتظام، نگرانی، دوسرے میزبانوں کے ساتھ مواصلت کے لیے ایک ایڈریس کے ساتھ، اسے ورچوئل مشینوں کی براہ راست منتقلی کے لیے بھی استعمال کیا جائے گا۔
  • میزبان پر دوسری دو بندرگاہیں بھی بانڈنگ موڈ میں ترتیب دی گئی ہیں اور 2960X سے منسلک ہیں - oVirt کا استعمال کرتے ہوئے اس منطقی انٹرفیس پر، مستقبل میں پل بنائے جائیں گے (متعلقہ VLANs میں) جن سے ورچوئل مشینیں منسلک ہوں گی۔
  • دونوں نیٹ ورک پورٹس، ایک ہی منطقی انٹرفیس کے اندر، فعال ہوں گے، یعنی ان پر ٹریفک کو توازن کے موڈ میں بیک وقت منتقل کیا جا سکتا ہے۔
  • کلسٹر نوڈس پر نیٹ ورک سیٹنگز بالکل ایک جیسی ہونی چاہئیں، سوائے IP ایڈریس کے۔

بنیادی سوئچ اسٹیک سیٹ اپ 2960X اور اس کی بندرگاہیں

ہمارے سوئچ سب سے پہلے ہونا چاہیے:

  • ریک نصب؛
  • مطلوبہ لمبائی کی دو خصوصی کیبلز کے ذریعے منسلک، مثال کے طور پر، CAB-STK-E-1M؛
  • بجلی کی فراہمی سے منسلک؛
  • کنسول پورٹ کے ذریعے ایڈمنسٹریٹر کے ورک سٹیشن سے ان کی ابتدائی ترتیب کے لیے منسلک ہے۔

اس کے لیے ضروری رہنمائی پر دستیاب ہے۔ سرکاری صفحہ کارخانہ دار۔

مندرجہ بالا مراحل کو مکمل کرنے کے بعد، ہم سوئچز کو ترتیب دیتے ہیں۔
ہر کمانڈ کا کیا مطلب ہے اس مضمون کے فریم ورک کے اندر سمجھنا مقصود نہیں ہے؛ اگر ضروری ہو تو، تمام معلومات آزادانہ طور پر تلاش کی جا سکتی ہیں۔
ہمارا مقصد سوئچ اسٹیک کو جلد از جلد ترتیب دینا اور میزبانوں اور اسٹوریج مینجمنٹ انٹرفیس کو اس سے جوڑنا ہے۔

1) ماسٹر سوئچ سے جڑیں، مراعات یافتہ موڈ پر جائیں، پھر کنفیگریشن موڈ پر جائیں اور بنیادی ترتیبات بنائیں۔

بنیادی سوئچ ترتیب:

 enable
 configure terminal

 hostname 2960X

 no service pad
 service timestamps debug datetime msec
 service timestamps log datetime localtime show-timezone msec
 no service password-encryption
 service sequence-numbers

 switch 1 priority 15
 switch 2 priority 14
 stack-mac persistent timer 0

 clock timezone MSK 3
  vtp mode transparent
  ip subnet-zero

 vlan 17
  name Management

 vlan 32
  name PROD 

 vlan 33
  name Interconnect

 vlan 34
  name Test

 vlan 35
  name Dev

 vlan 40
  name Monitoring

 spanning-tree mode rapid-pvst
 spanning-tree etherchannel guard misconfig
 spanning-tree portfast bpduguard default
 spanning-tree extend system-id
 spanning-tree vlan 1-40 root primary
 spanning-tree loopguard default
 vlan internal allocation policy ascending
 port-channel load-balance src-dst-ip

 errdisable recovery cause loopback
 errdisable recovery cause bpduguard
 errdisable recovery interval 60

line con 0
 session-timeout 60
 exec-timeout 60 0
 logging synchronous
line vty 5 15
 session-timeout 60
 exec-timeout 60 0
 logging synchronous

 ip http server
 ip http secure-server
 no vstack

interface Vlan1
 no ip address
 shutdown

 exit 

ہم ترتیب کو کمانڈ کے ساتھ محفوظ کرتے ہیں "wr meme"اور کمانڈ کے ساتھ سوئچ اسٹیک کو ریبوٹ کریں"دوبارہ لوڈ کریں»ماسٹر سوئچ 1 پر۔

2) ہم VLAN 17 میں ایکسیس موڈ میں سوئچ کے نیٹ ورک پورٹس کو ترتیب دیتے ہیں تاکہ اسٹوریج سسٹمز اور iDRAC سرورز کے انتظامی انٹرفیس کو جوڑ سکیں۔

انتظامی بندرگاہوں کو ترتیب دینا:

interface GigabitEthernet1/0/5
 description iDRAC - host1
 switchport access vlan 17
 switchport mode access
 spanning-tree portfast edge

interface GigabitEthernet1/0/6
 description Storage1 - Cntr0/Eth0
 switchport access vlan 17
 switchport mode access
 spanning-tree portfast edge

interface GigabitEthernet2/0/5
 description iDRAC - host2
 switchport access vlan 17
 switchport mode access
 spanning-tree portfast edge

interface GigabitEthernet2/0/6
 description Storage1 – Cntr1/Eth0
 switchport access vlan 17
 switchport mode access
 spanning-tree portfast edge
 exit

3) اسٹیک کو دوبارہ لوڈ کرنے کے بعد، چیک کریں کہ یہ صحیح طریقے سے کام کرتا ہے:

اسٹیک کی فعالیت کی جانچ کرنا:

2960X#show switch stack-ring speed

Stack Ring Speed        : 20G
Stack Ring Configuration: Full
Stack Ring Protocol     : FlexStack

2960X#show switch stack-ports
  Switch #    Port 1       Port 2
  --------    ------       ------
    1           Ok           Ok
    2           Ok           Ok

2960X#show switch neighbors
  Switch #    Port 1       Port 2
  --------    ------       ------
      1         2             2
      2         1             1

2960X#show switch detail
Switch/Stack Mac Address : 0cd0.f8e4.ХХХХ
Mac persistency wait time: Indefinite
                                           H/W   Current
Switch#  Role   Mac Address     Priority Version  State
----------------------------------------------------------
*1       Master 0cd0.f8e4.ХХХХ    15     4       Ready
 2       Member 0029.c251.ХХХХ     14     4       Ready

         Stack Port Status             Neighbors
Switch#  Port 1     Port 2           Port 1   Port 2
--------------------------------------------------------
  1        Ok         Ok                2        2
  2        Ok         Ok                1        1

4) 2960X اسٹیک تک SSH رسائی کو ترتیب دینا

SSH کے ذریعے اسٹیک کو دور سے منظم کرنے کے لیے، ہم SVI کے لیے کنفیگر کردہ IP 172.20.1.10 استعمال کریں گے (ورچوئل انٹرفیس کو سوئچ کریں) VLAN17.

اگرچہ انتظامی مقاصد کے لیے سوئچ پر ایک وقف شدہ پورٹ استعمال کرنے کا مشورہ دیا جاتا ہے، لیکن یہ ذاتی ترجیحات اور صلاحیتوں کا معاملہ ہے۔

سوئچز کے اسٹیک تک SSH رسائی کو ترتیب دینا:

ip default-gateway 172.20.1.2

interface vlan 17
 ip address 172.20.1.10 255.255.255.0

hostname 2960X
 ip domain-name hw.home-lab.ru
 no ip domain-lookup

clock set 12:47:04 06 Dec 2019

crypto key generate rsa

ip ssh version 2
ip ssh time-out 90

line vty 0 4
 session-timeout 60
 exec-timeout 60 0
 privilege level 15
 logging synchronous
 transport input ssh

line vty 5 15
 session-timeout 60
 exec-timeout 60 0
 privilege level 15
 logging synchronous
 transport input ssh

aaa new-model
aaa authentication login default local 
username cisco privilege 15 secret my_ssh_password

مراعات یافتہ موڈ میں داخل ہونے کے لیے پاس ورڈ ترتیب دیں:

enable secret *myenablepassword*
service password-encryption

NTP ترتیب دینا:

ntp server 85.21.78.8 prefer
ntp server 89.221.207.113
ntp server 185.22.60.71
ntp server 192.36.143.130
ntp server 185.209.85.222

show ntp status
show ntp associations
show clock detail

5) میزبانوں سے منسلک منطقی ایتھر چینل انٹرفیس اور فزیکل پورٹس کو ترتیب دیں۔ ترتیب میں آسانی کے لیے، تمام دستیاب VLANs کو تمام منطقی انٹرفیس پر فعال کر دیا جائے گا، لیکن عام طور پر صرف وہی ترتیب دینے کی سفارش کی جاتی ہے جس کی ضرورت ہے:

ایتھر چینل انٹرفیس کی تشکیل:

interface Port-channel1
 description EtherChannel with Host1-management
 switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 spanning-tree portfast edge trunk

interface Port-channel2
 description EtherChannel with Host2-management
 switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 spanning-tree portfast edge trunk

interface Port-channel3
 description EtherChannel with Host1-VM
 switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 spanning-tree portfast edge trunk

interface Port-channel4
 description EtherChannel with Host2-VM
 switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 spanning-tree portfast edge trunk

interface GigabitEthernet1/0/1
 description Host1-management
 switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 channel-protocol lacp
 channel-group 1 mode active

interface GigabitEthernet1/0/2
 description Host2-management
  switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 channel-protocol lacp
 channel-group 2 mode active

interface GigabitEthernet1/0/3
 description Host1-VM
  switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 channel-protocol lacp
 channel-group 3 mode active

interface GigabitEthernet1/0/4
 description Host2-VM
 switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 channel-protocol lacp
 channel-group 4 mode active

interface GigabitEthernet2/0/1
 description Host1-management
 switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 channel-protocol lacp
 channel-group 1 mode active

interface GigabitEthernet2/0/2
 description Host2-management
  switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 channel-protocol lacp
 channel-group 2 mode active

interface GigabitEthernet2/0/3
 description Host1-VM
  switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 channel-protocol lacp
 channel-group 3 mode active

interface GigabitEthernet2/0/4
 description Host2-VM
 switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 channel-protocol lacp
 channel-group 4 mode active

میزبانوں پر ورچوئل مشینوں کے لیے نیٹ ورک انٹرفیس کی ابتدائی ترتیب میزبان 1 и میزبان 2

ہم نظام میں کام کرنے کے لیے بانڈنگ کے لیے ضروری ماڈیولز کی موجودگی کو چیک کرتے ہیں، پلوں کو کنٹرول کرنے کے لیے ایک ماڈیول انسٹال کریں:

modinfo bonding
modinfo 8021q
yum install bridge-utils

ورچوئل مشینوں کے لیے BOND1 منطقی انٹرفیس اور میزبانوں پر اس کے جسمانی انٹرفیس کو ترتیب دینا:

cat /etc/sysconfig/network-scripts/ifcfg-bond1
#DESCRIPTION - management
DEVICE=bond1
NAME=bond1
TYPE=Bond
IPV6INIT=no
ONBOOT=yes
USERCTL=no
NM_CONTROLLED=no
BOOTPROTO=none
BONDING_OPTS='mode=4 lacp_rate=1 xmit_hash_policy=2'

cat /etc/sysconfig/network-scripts/ifcfg-em2
#DESCRIPTION - management
DEVICE=em2
TYPE=Ethernet
BOOTPROTO=none
ONBOOT=yes
MASTER=bond1
SLAVE=yes
USERCTL=no 
NM_CONTROLLED=no 

cat /etc/sysconfig/network-scripts/ifcfg-em3
#DESCRIPTION - management
DEVICE=em3
TYPE=Ethernet
BOOTPROTO=none
ONBOOT=yes
MASTER=bond1
SLAVE=yes
USERCTL=no 
NM_CONTROLLED=no 

اسٹیک پر ترتیبات کو مکمل کرنے کے بعد 2960 ایچ اور میزبان، ہم میزبانوں پر نیٹ ورک کو دوبارہ شروع کرتے ہیں اور منطقی انٹرفیس کی فعالیت کو چیک کرتے ہیں۔

  • میزبان پر:

systemctl restart network

cat /proc/net/bonding/bond1
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: IEEE 802.3ad Dynamic link aggregation
Transmit Hash Policy: layer2+3 (2)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0
...
802.3ad info
LACP rate: fast
Min links: 0
Aggregator selection policy (ad_select): stable
System priority: 65535
...
Slave Interface: em2
MII Status: up
Speed: 1000 Mbps
Duplex: full
...
Slave Interface: em3
MII Status: up
Speed: 1000 Mbps
Duplex: full

  • ایک سوئچ اسٹیک پر 2960 ایچ:

2960X#show lacp internal
Flags:  S - Device is requesting Slow LACPDUs
        F - Device is requesting Fast LACPDUs
        A - Device is in Active mode       P - Device is in Passive mode

Channel group 1
                            LACP port     Admin     Oper    Port        Port
Port      Flags   State     Priority      Key       Key     Number      State
Gi1/0/1   SA      bndl      32768         0x1       0x1     0x102       0x3D
Gi2/0/1   SA      bndl      32768         0x1       0x1     0x202       0x3D

2960X#sh etherchannel summary
Flags:  D - down        P - bundled in port-channel
        I - stand-alone s - suspended
        H - Hot-standby (LACP only)
        R - Layer3      S - Layer2
        U - in use      N - not in use, no aggregation
        f - failed to allocate aggregator

        M - not in use, minimum links not met
        m - not in use, port not aggregated due to minimum links not met
        u - unsuitable for bundling
        w - waiting to be aggregated
        d - default port

        A - formed by Auto LAG

Number of channel-groups in use: 11
Number of aggregators:           11

Group  Port-channel  Protocol    Ports
------+-------------+-----------+-----------------------------------------------
1      Po1(SU)         LACP      Gi1/0/1(P)  Gi2/0/1(P)

میزبانوں پر کلسٹر وسائل کے انتظام کے لیے نیٹ ورک انٹرفیس کی ابتدائی ترتیب میزبان 1 и میزبان 2

میزبانوں پر انتظام اور اس کے جسمانی انٹرفیس کے لیے BOND1 منطقی انٹرفیس کو ترتیب دینا:

cat /etc/sysconfig/network-scripts/ifcfg-bond0
#DESCRIPTION - management
DEVICE=bond0
NAME=bond0
TYPE=Bond
BONDING_MASTER=yes
IPV6INIT=no
ONBOOT=yes
USERCTL=no
NM_CONTROLLED=no
BOOTPROTO=none
BONDING_OPTS='mode=4 lacp_rate=1 xmit_hash_policy=2'

cat /etc/sysconfig/network-scripts/ifcfg-em0
#DESCRIPTION - management
DEVICE=em0
TYPE=Ethernet
BOOTPROTO=none
ONBOOT=yes
MASTER=bond0
SLAVE=yes
USERCTL=no 
NM_CONTROLLED=no 

cat /etc/sysconfig/network-scripts/ifcfg-em1
#DESCRIPTION - management
DEVICE=em1
TYPE=Ethernet
BOOTPROTO=none
ONBOOT=yes
MASTER=bond0
SLAVE=yes
USERCTL=no 
NM_CONTROLLED=no 

اسٹیک پر ترتیبات کو مکمل کرنے کے بعد 2960 ایچ اور میزبان، ہم میزبانوں پر نیٹ ورک کو دوبارہ شروع کرتے ہیں اور منطقی انٹرفیس کی فعالیت کو چیک کرتے ہیں۔

systemctl restart network
cat /proc/net/bonding/bond1

2960X#show lacp internal
2960X#sh etherchannel summary

ہم ہر میزبان پر کنٹرول نیٹ ورک انٹرفیس کو ترتیب دیتے ہیں۔ VLAN 17۔، اور اسے منطقی انٹرفیس BOND1 سے منسلک کریں:

میزبان 17 پر VLAN1 کو ترتیب دینا:

cat /etc/sysconfig/network-scripts/ifcfg-bond1.17
DEVICE=bond1.17
NAME=bond1-vlan17
BOOTPROTO=none
ONBOOT=yes 
USERCTL=no 
NM_CONTROLLED=no 
VLAN=yes
MTU=1500  
IPV4_FAILURE_FATAL=yes
IPV6INIT=no
IPADDR=172.20.17.163
NETMASK=255.255.255.0
GATEWAY=172.20.17.2
DEFROUTE=yes
DNS1=172.20.17.8
DNS2=172.20.17.9
ZONE=public

میزبان 17 پر VLAN2 کو ترتیب دینا:

cat /etc/sysconfig/network-scripts/ifcfg-bond1.17
DEVICE=bond1.17
NAME=bond1-vlan17
BOOTPROTO=none
ONBOOT=yes 
USERCTL=no 
NM_CONTROLLED=no 
VLAN=yes
MTU=1500  
IPV4_FAILURE_FATAL=yes
IPV6INIT=no
IPADDR=172.20.17.164
NETMASK=255.255.255.0
GATEWAY=172.20.17.2
DEFROUTE=yes
DNS1=172.20.17.8
DNS2=172.20.17.9
ZONE=public

ہم میزبانوں پر نیٹ ورک کو دوبارہ شروع کرتے ہیں اور ایک دوسرے سے ان کی مرئیت کو چیک کرتے ہیں۔

یہ Cisco 2960X سوئچز کے اسٹیک کی ترتیب کو مکمل کرتا ہے، اور اگر سب کچھ صحیح طریقے سے کیا گیا تھا، تو اب ہمارے پاس L2 سطح پر تمام بنیادی ڈھانچے کے عناصر کا ایک دوسرے سے نیٹ ورک کنیکٹیویٹی ہے۔

ڈیل MD3820f سٹوریج سسٹم ترتیب دے رہا ہے۔

سٹوریج سسٹم کو ترتیب دینے پر کام شروع کرنے سے پہلے، اسے پہلے سے ہی سسکو سوئچز کے اسٹیک سے منسلک ہونا چاہیے۔ 2960 ایچ کنٹرول انٹرفیس کے ساتھ ساتھ میزبانوں کو بھی میزبان 1 и میزبان 2 ایف سی کے ذریعے

سٹوریج سسٹمز کو سوئچز کے اسٹیک سے کیسے جوڑنا چاہیے اس کا عمومی خاکہ پچھلے باب میں دیا گیا تھا۔

اسٹوریج سسٹم کو FC کے ذریعے میزبانوں سے جوڑنے کا خاکہ اس طرح نظر آنا چاہئے:

غلطی برداشت کرنے والے آئی ٹی انفراسٹرکچر کی تشکیل۔ حصہ 1 - ایک oVirt 4.3 کلسٹر تعینات کرنے کی تیاری

کنکشن کے دوران، آپ کو اسٹوریج سسٹم پر FC پورٹس سے منسلک FC HBA میزبانوں کے لیے WWPN ایڈریس لکھنے کی ضرورت ہے - یہ بعد میں سٹوریج سسٹم پر LUNs سے میزبانوں کے بائنڈنگ کو ترتیب دینے کے لیے ضروری ہوگا۔

ایڈمنسٹریٹر کے ورک سٹیشن پر، ڈیل MD3820f اسٹوریج سسٹم کے انتظام کے لیے یوٹیلیٹی کو ڈاؤن لوڈ اور انسٹال کریں۔ پاور والٹ ماڈیولر ڈسک اسٹوریج مینیجر (ایم ڈی ایس ایم).
ہم اس سے اس کے پہلے سے طے شدہ IP پتوں کے ذریعے جڑتے ہیں، اور پھر اپنے پتے یہاں سے ترتیب دیتے ہیں۔ VLAN17TCP/IP کے ذریعے کنٹرولرز کا نظم کرنے کے لیے:

اسٹوریج 1:

ControllerA IP - 172.20.1.13, MASK - 255.255.255.0, Gateway - 172.20.1.2
ControllerB IP - 172.20.1.14, MASK - 255.255.255.0, Gateway - 172.20.1.2

ایڈریس سیٹ کرنے کے بعد، سٹوریج مینجمنٹ انٹرفیس پر جائیں اور پاس ورڈ سیٹ کریں، ٹائم سیٹ کریں، کنٹرولرز اور ڈسک کے لیے فرم ویئر کو اپ ڈیٹ کریں، اگر ضروری ہو تو وغیرہ۔
یہ کیسے کیا جاتا ہے اس میں بیان کیا گیا ہے۔ انتظامیہ گائیڈ اسٹوریج سسٹم

مندرجہ بالا ترتیبات کو مکمل کرنے کے بعد، ہمیں صرف چند اقدامات کرنے کی ضرورت ہوگی:

  1. میزبان ایف سی پورٹ آئی ڈی کو ترتیب دیں - میزبان پورٹ شناخت کنندگان.
  2. ایک میزبان گروپ بنائیں - میزبان گروپ اور اس میں ہمارے دو ڈیل میزبانوں کو شامل کریں۔
  3. اس میں ایک ڈسک گروپ اور ورچوئل ڈسکیں (یا LUNs) بنائیں جو میزبانوں کو پیش کی جائیں گی۔
  4. میزبانوں کے لیے ورچوئل ڈسک (یا LUNs) کی پیشکش کو ترتیب دیں۔

نئے میزبانوں کو شامل کرنا اور میزبان ایف سی پورٹ شناخت کنندگان کو بائنڈنگ کرنا مینو کے ذریعے کیا جاتا ہے۔ میزبان میپنگس -> وضاحت کریں -> میزبانوں…
FC HBA میزبانوں کے WWPN پتے مل سکتے ہیں، مثال کے طور پر، iDRAC سرورز میں۔

نتیجے کے طور پر، ہمیں اس طرح کچھ حاصل کرنا چاہئے:

غلطی برداشت کرنے والے آئی ٹی انفراسٹرکچر کی تشکیل۔ حصہ 1 - ایک oVirt 4.3 کلسٹر تعینات کرنے کی تیاری

میزبانوں کے ایک نئے گروپ کو شامل کرنا اور اس میں میزبانوں کو بائنڈنگ کرنا مینو کے ذریعے کیا جاتا ہے۔ میزبان میپنگس -> وضاحت کریں -> میزبان گروپ…
میزبانوں کے لیے، OS کی قسم منتخب کریں - لینکس (DM-MP).

میزبان گروپ بنانے کے بعد، ٹیب کے ذریعے اسٹوریج اور کاپی سروسز، ایک ڈسک گروپ بنائیں - ڈسک گروپ, غلطی کی رواداری کے تقاضوں پر منحصر ایک قسم کے ساتھ، مثال کے طور پر، RAID10، اور اس میں مطلوبہ سائز کی ورچوئل ڈسکیں:

غلطی برداشت کرنے والے آئی ٹی انفراسٹرکچر کی تشکیل۔ حصہ 1 - ایک oVirt 4.3 کلسٹر تعینات کرنے کی تیاری

اور آخر میں، آخری مرحلہ میزبانوں کو ورچوئل ڈسک (یا LUNs) کی پیشکش ہے۔
ایسا کرنے کے لیے، مینو کے ذریعے - میزبان میپنگس -> چاند کی نقشہ سازی۔ -> شامل کریں ... ہم ورچوئل ڈسکوں کو میزبانوں کو نمبر دے کر ان کے ساتھ منسلک کرتے ہیں۔

سب کچھ اس اسکرین شاٹ کی طرح نظر آنا چاہئے:

غلطی برداشت کرنے والے آئی ٹی انفراسٹرکچر کی تشکیل۔ حصہ 1 - ایک oVirt 4.3 کلسٹر تعینات کرنے کی تیاری

یہ وہ جگہ ہے جہاں ہم سٹوریج سسٹم کو ترتیب دیتے ہیں، اور اگر سب کچھ صحیح طریقے سے کیا گیا تھا، تو میزبانوں کو اپنے FC HBA کے ذریعے پیش کیے گئے LUNs کو دیکھنا چاہیے۔
آئیے سسٹم کو منسلک ڈسک کے بارے میں معلومات کو اپ ڈیٹ کرنے پر مجبور کریں:

ls -la /sys/class/scsi_host/
echo "- - -" > /sys/class/scsi_host/host[0-9]/scan

آئیے دیکھتے ہیں کہ ہمارے سرورز پر کون سے آلات نظر آتے ہیں:

cat /proc/scsi/scsi
Attached devices:
Host: scsi0 Channel: 02 Id: 00 Lun: 00
  Vendor: DELL     Model: PERC H330 Mini   Rev: 4.29
  Type:   Direct-Access                    ANSI  SCSI revision: 05
Host: scsi15 Channel: 00 Id: 00 Lun: 00
  Vendor: DELL     Model: MD38xxf          Rev: 0825
  Type:   Direct-Access                    ANSI  SCSI revision: 05
Host: scsi15 Channel: 00 Id: 00 Lun: 01
  Vendor: DELL     Model: MD38xxf          Rev: 0825
  Type:   Direct-Access                    ANSI  SCSI revision: 05
Host: scsi15 Channel: 00 Id: 00 Lun: 04
  Vendor: DELL     Model: MD38xxf          Rev: 0825
  Type:   Direct-Access                    ANSI  SCSI revision: 05
Host: scsi15 Channel: 00 Id: 00 Lun: 11
  Vendor: DELL     Model: MD38xxf          Rev: 0825
  Type:   Direct-Access                    ANSI  SCSI revision: 05
Host: scsi15 Channel: 00 Id: 00 Lun: 31
  Vendor: DELL     Model: Universal Xport  Rev: 0825
  Type:   Direct-Access                    ANSI  SCSI revision: 05
Host: scsi18 Channel: 00 Id: 00 Lun: 00
  Vendor: DELL     Model: MD38xxf          Rev: 0825
  Type:   Direct-Access                    ANSI  SCSI revision: 05
Host: scsi18 Channel: 00 Id: 00 Lun: 01
  Vendor: DELL     Model: MD38xxf          Rev: 0825
  Type:   Direct-Access                    ANSI  SCSI revision: 05
Host: scsi18 Channel: 00 Id: 00 Lun: 04
  Vendor: DELL     Model: MD38xxf          Rev: 0825
  Type:   Direct-Access                    ANSI  SCSI revision: 05
Host: scsi18 Channel: 00 Id: 00 Lun: 11
  Vendor: DELL     Model: MD38xxf          Rev: 0825
  Type:   Direct-Access                    ANSI  SCSI revision: 05
Host: scsi18 Channel: 00 Id: 00 Lun: 31
  Vendor: DELL     Model: Universal Xport  Rev: 0825
  Type:   Direct-Access                    ANSI  SCSI revision: 05

lsscsi
[0:2:0:0]    disk    DELL     PERC H330 Mini   4.29  /dev/sda
[15:0:0:0]   disk    DELL     MD38xxf          0825  -
[15:0:0:1]   disk    DELL     MD38xxf          0825  /dev/sdb
[15:0:0:4]   disk    DELL     MD38xxf          0825  /dev/sdc
[15:0:0:11]  disk    DELL     MD38xxf          0825  /dev/sdd
[15:0:0:31]  disk    DELL     Universal Xport  0825  -
 [18:0:0:0]   disk    DELL     MD38xxf          0825  -
[18:0:0:1]   disk    DELL     MD38xxf          0825  /dev/sdi
[18:0:0:4]   disk    DELL     MD38xxf          0825  /dev/sdj
[18:0:0:11]  disk    DELL     MD38xxf          0825  /dev/sdk
[18:0:0:31]  disk    DELL     Universal Xport  0825  -

میزبانوں پر آپ اضافی طور پر کنفیگر بھی کر سکتے ہیں۔ ضرب، اور اگرچہ oVirt کو انسٹال کرتے وقت یہ خود کر سکتا ہے، یہ بہتر ہے کہ MP کے درست آپریشن کو پہلے ہی خود چیک کریں۔

ڈی ایم ملٹی پاتھ کی انسٹالیشن اور کنفیگریشن

yum install device-mapper-multipath
mpathconf --enable --user_friendly_names y

cat /etc/multipath.conf | egrep -v "^s*(#|$)"
defaults {
    user_friendly_names yes
            find_multipaths yes
}

blacklist {
  wwid 26353900f02796769
  devnode "^(ram|raw|loop|fd|md|dm-|sr|scd|st)[0-9]*"     
  devnode "^hd[a-z]"
 }

MP سروس کو آٹو سٹارٹ پر سیٹ کریں اور اسے لانچ کریں:

systemctl enable multipathd && systemctl restart multipathd

ایم پی آپریشن کے لیے بھری ہوئی ماڈیولز کے بارے میں معلومات کی جانچ کرنا:

lsmod | grep dm_multipath
dm_multipath           27792  6 dm_service_time
dm_mod                124407  139 dm_multipath,dm_log,dm_mirror

modinfo dm_multipath
filename:       /lib/modules/3.10.0-957.12.2.el7.x86_64/kernel/drivers/md/dm-multipath.ko.xz
license:        GPL
author:         Sistina Software <[email protected]>
description:    device-mapper multipath target
retpoline:      Y
rhelversion:    7.6
srcversion:     985A03DCAF053D4910E53EE
depends:        dm-mod
intree:         Y
vermagic:       3.10.0-957.12.2.el7.x86_64 SMP mod_unload modversions
signer:         CentOS Linux kernel signing key
sig_key:        A3:2D:39:46:F2:D3:58:EA:52:30:1F:63:37:8A:37:A5:54:03:00:45
sig_hashalgo:   sha256

آئیے موجودہ ملٹی پاتھ کنفیگریشن کے بارے میں خلاصہ معلومات دیکھیں:

mpathconf
multipath is enabled
find_multipaths is disabled
user_friendly_names is disabled
dm_multipath module is loaded
multipathd is running

اسٹوریج سسٹم میں ایک نیا LUN شامل کرنے اور اسے میزبان کے سامنے پیش کرنے کے بعد، آپ کو اس پر میزبان سے منسلک HBAs کو اسکین کرنے کی ضرورت ہے۔

systemctl reload multipathd
multipath -v2

اور آخر میں، ہم چیک کرتے ہیں کہ آیا تمام LUNs میزبانوں کے لیے اسٹوریج سسٹم پر پیش کیے گئے تھے، اور آیا ان سب کے لیے دو راستے ہیں۔

ایم پی آپریشن کی جانچ کرنا:

multipath -ll
3600a098000e4b4b3000003175cec1840 dm-2 DELL    ,MD38xxf
size=2.0T features='3 queue_if_no_path pg_init_retries 50' hwhandler='1 rdac' wp=rw
|-+- policy='service-time 0' prio=14 status=active
| `- 15:0:0:1  sdb 8:16  active ready running
`-+- policy='service-time 0' prio=9 status=enabled
  `- 18:0:0:1  sdi 8:128 active ready running
3600a098000e4b48f000002ab5cec1921 dm-6 DELL    ,MD38xxf
size=10T features='3 queue_if_no_path pg_init_retries 50' hwhandler='1 rdac' wp=rw
|-+- policy='service-time 0' prio=14 status=active
| `- 18:0:0:11 sdk 8:160 active ready running
`-+- policy='service-time 0' prio=9 status=enabled
  `- 15:0:0:11 sdd 8:48  active ready running
3600a098000e4b4b3000003c95d171065 dm-3 DELL    ,MD38xxf
size=150G features='3 queue_if_no_path pg_init_retries 50' hwhandler='1 rdac' wp=rw
|-+- policy='service-time 0' prio=14 status=active
| `- 15:0:0:4  sdc 8:32  active ready running
`-+- policy='service-time 0' prio=9 status=enabled
  `- 18:0:0:4  sdj 8:144 active ready running

جیسا کہ آپ دیکھ سکتے ہیں، اسٹوریج سسٹم پر موجود تینوں ورچوئل ڈسکیں دو راستوں پر نظر آتی ہیں۔ اس طرح، تمام تیاری کا کام مکمل ہو چکا ہے، جس کا مطلب ہے کہ آپ اہم حصے پر جا سکتے ہیں - oVirt کلسٹر کو ترتیب دینا، جس پر اگلے مضمون میں بحث کی جائے گی۔

ماخذ: www.habr.com

نیا تبصرہ شامل کریں