दोष-सहिष्णु आईटी बुनियादी ढांचे का निर्माण। भाग 1 - एक oVirt 4.3 क्लस्टर तैनात करने की तैयारी

पाठकों को एक ही डेटा सेंटर के भीतर एक छोटे उद्यम के लिए दोष-सहिष्णु बुनियादी ढांचे के निर्माण के सिद्धांतों से परिचित होने के लिए आमंत्रित किया जाता है, जिस पर लेखों की एक छोटी श्रृंखला में विस्तार से चर्चा की जाएगी।

प्राथमिक अथवा प्रारम्भिक लक्षण

नीचे डेटा सेंटर (डेटा प्रोसेसिंग सेंटर) को इस प्रकार समझा जा सकता है:

  • उद्यम के क्षेत्र में अपने स्वयं के "सर्वर रूम" में स्वयं का रैक, जो बिजली और शीतलन उपकरण प्रदान करने के लिए न्यूनतम आवश्यकताओं को पूरा करता है, और दो स्वतंत्र प्रदाताओं के माध्यम से इंटरनेट का उपयोग भी करता है;
  • अपने स्वयं के उपकरण के साथ एक किराए का रैक, जो एक वास्तविक डेटा सेंटर में स्थित है - तथाकथित। एक टियर III या IV संयोजन जो विश्वसनीय पावर, कूलिंग और फेलओवर इंटरनेट एक्सेस की गारंटी देता है;
  • टियर III या IV डेटा सेंटर में पूरी तरह से पट्टे पर दिए गए उपकरण।

कौन सा आवास विकल्प चुनना है - प्रत्येक मामले में, सब कुछ व्यक्तिगत है, और आमतौर पर कई मुख्य कारकों पर निर्भर करता है:

  • किसी उद्यम को अपने स्वयं के आईटी बुनियादी ढांचे की आवश्यकता क्यों है;
  • उद्यम आईटी अवसंरचना (विश्वसनीयता, मापनीयता, प्रबंधनीयता, आदि) से वास्तव में क्या चाहता है;
  • आईटी अवसंरचना में प्रारंभिक निवेश की राशि, साथ ही इसके लिए किस प्रकार की लागत - पूंजी (जिसका अर्थ है अपने स्वयं के उपकरण खरीदना), या संचालन (उपकरण आमतौर पर किराए पर लिया जाता है);
  • उद्यम का नियोजन क्षितिज ही।

आप उन कारकों के बारे में बहुत कुछ लिख सकते हैं जो किसी उद्यम के आईटी बुनियादी ढांचे को बनाने और उपयोग करने के निर्णय को प्रभावित करते हैं, लेकिन हमारा लक्ष्य व्यवहार में यह दिखाना है कि इस बुनियादी ढांचे को कैसे बनाया जाए ताकि यह दोष-सहिष्णु हो, और साथ ही पैसे बचाना भी संभव हो - वाणिज्यिक सॉफ्टवेयर खरीदने की लागत कम करें, या उनसे पूरी तरह बचें।

जैसा कि लंबे अभ्यास से पता चलता है, लोहे पर बचत करना उचित नहीं है, क्योंकि कंजूस दो बार भुगतान करता है, या उससे भी अधिक। लेकिन फिर - अच्छा हार्डवेयर, यह सिर्फ एक सिफारिश है, और अंत में वास्तव में क्या खरीदना है और कितना खरीदना है यह उद्यम की क्षमताओं और उसके प्रबंधन के "लालच" पर निर्भर करता है। इसके अलावा, "लालच" शब्द को शब्द के अच्छे अर्थ में समझा जाना चाहिए, क्योंकि प्रारंभिक चरण में हार्डवेयर में निवेश करना बेहतर है, ताकि बाद में आपको इसके आगे के समर्थन और स्केलिंग में गंभीर समस्या न हो, क्योंकि शुरू में गलत योजना और अत्यधिक बचत से भविष्य में प्रोजेक्ट शुरू करने की तुलना में अधिक लागत हो सकती है।

तो, परियोजना के लिए प्रारंभिक डेटा:

  • एक उद्यम है जिसने अपना स्वयं का वेब पोर्टल बनाने और अपनी गतिविधियों को इंटरनेट पर लाने का निर्णय लिया है;
  • कंपनी ने टियर III मानक के अनुसार प्रमाणित एक अच्छे डेटा सेंटर में अपने उपकरणों को समायोजित करने के लिए एक रैक किराए पर लेने का निर्णय लिया;
  • कंपनी ने हार्डवेयर पर अधिक बचत न करने का निर्णय लिया, और इसलिए विस्तारित वारंटी और समर्थन के साथ निम्नलिखित उपकरण खरीदे:

उपकरण सूची

  • दो भौतिक Dell PowerEdge R640 सर्वर इस प्रकार हैं:
  • दो Intel Xeon गोल्ड 5120 प्रोसेसर
  • एक्सएनएनएक्स जीबी रैम
  • OS स्थापना के लिए RAID1 में दो SAS डिस्क
  • अंतर्निर्मित 4-पोर्ट 1जी नेटवर्क कार्ड
  • दो 2-पोर्ट 10जी नेटवर्क कार्ड
  • एक 2-पोर्ट एफसी एचबीए 16जी।
  • Dell MD2f 3820 कंट्रोलर स्टोरेज FC 16G के माध्यम से सीधे Dell होस्ट्स से जुड़ा हुआ है;
  • दूसरे स्तर के दो स्विच - सिस्को WS-C2960RX-48FPS-L स्टैक्ड;
  • तीसरे स्तर के दो स्विच - सिस्को WS-C3850-24T-E, एक स्टैक में संयुक्त;
  • रैक, यूपीएस, पीडीयू, कंसोल सर्वर - डेटा सेंटर द्वारा प्रदान किया गया।

जैसा कि हम देख सकते हैं, मौजूदा उपकरणों में क्षैतिज और ऊर्ध्वाधर स्केलिंग की अच्छी संभावनाएं हैं, यदि उद्यम इंटरनेट पर समान प्रोफ़ाइल की अन्य कंपनियों के साथ प्रतिस्पर्धा कर सकता है, और लाभ कमाना शुरू कर देता है जिसे आगे की प्रतिस्पर्धा और लाभ वृद्धि के लिए संसाधनों के विस्तार में निवेश किया जा सकता है।

यदि उद्यम हमारे कंप्यूटिंग क्लस्टर के प्रदर्शन को बढ़ाने का निर्णय लेता है तो हम कौन से उपकरण जोड़ सकते हैं:

  • 2960X स्विच पर पोर्ट की संख्या के संदर्भ में हमारे पास एक बड़ा रिज़र्व है, जिसका अर्थ है कि हम अधिक हार्डवेयर सर्वर जोड़ सकते हैं;
  • स्टोरेज सिस्टम और अतिरिक्त सर्वर को उनसे जोड़ने के लिए दो एफसी स्विच खरीदें;
  • मौजूदा सर्वर को अपग्रेड किया जा सकता है - मेमोरी जोड़ें, प्रोसेसर को अधिक कुशल सर्वर से बदलें, मौजूदा नेटवर्क एडाप्टर के साथ 10G नेटवर्क से कनेक्ट करें;
  • आप नियोजित लोड के आधार पर आवश्यक प्रकार के डिस्क - एसएएस, एसएटीए या एसएसडी के साथ स्टोरेज सिस्टम में अतिरिक्त डिस्क शेल्फ जोड़ सकते हैं;
  • एफसी स्विच जोड़ने के बाद, आप और भी अधिक डिस्क क्षमता जोड़ने के लिए एक और स्टोरेज सिस्टम खरीद सकते हैं, और यदि आप इसमें एक विशेष रिमोट प्रतिकृति विकल्प खरीदते हैं, तो आप एक डेटा सेंटर की सीमाओं के भीतर और डेटा केंद्रों के बीच स्टोरेज सिस्टम के बीच डेटा प्रतिकृति को कॉन्फ़िगर कर सकते हैं (लेकिन यह पहले से ही लेख के दायरे से परे है);
  • तीसरे स्तर के स्विच भी हैं - सिस्को 3850, जिसका उपयोग आंतरिक नेटवर्क के बीच उच्च गति रूटिंग के लिए दोष-सहिष्णु नेटवर्क कोर के रूप में किया जा सकता है। इससे भविष्य में बहुत मदद मिलेगी, क्योंकि आंतरिक बुनियादी ढांचा बढ़ेगा। 3850 में 10G पोर्ट भी हैं जिनका उपयोग बाद में नेटवर्क उपकरण को 10G स्पीड में अपग्रेड करते समय किया जा सकता है।

चूंकि अब वर्चुअलाइजेशन के बिना कहीं नहीं है, हम निश्चित रूप से प्रवृत्ति में होंगे, और भी अधिक यह व्यक्तिगत बुनियादी ढांचे के तत्वों (वेब ​​​​सर्वर, डेटाबेस इत्यादि) के लिए महंगे सर्वर प्राप्त करने की लागत को कम करने का एक शानदार तरीका है, जो कम लोड के मामले में हमेशा इष्टतम रूप से उपयोग नहीं किया जाता है, और प्रोजेक्ट लॉन्च की शुरुआत में यही होगा।

इसके अलावा, वर्चुअलाइजेशन के कई अन्य फायदे हैं जो हमारे लिए बहुत उपयोगी हो सकते हैं: हार्डवेयर सर्वर विफलता से वीएम दोष सहिष्णुता, उनके रखरखाव के लिए क्लस्टर हार्डवेयर नोड्स के बीच लाइव माइग्रेशन, क्लस्टर नोड्स के बीच मैन्युअल या स्वचालित लोड वितरण आदि।

एंटरप्राइज़ द्वारा खरीदे गए हार्डवेयर के लिए, अत्यधिक उपलब्ध VMware vSphere क्लस्टर की तैनाती स्वयं ही सुझाती है, लेकिन चूंकि VMware का कोई भी सॉफ़्टवेयर अपने "घोड़े" मूल्य टैग के लिए जाना जाता है, हम बिल्कुल मुफ्त वर्चुअलाइजेशन प्रबंधन सॉफ़्टवेयर का उपयोग करेंगे - OVirt, जिसके आधार पर एक प्रसिद्ध, लेकिन पहले से ही व्यावसायिक उत्पाद बनाया जाता है - आरएचईवी.

सॉफ़्टवेयर OVirt अत्यधिक उपलब्ध वर्चुअल मशीनों के साथ आसानी से काम करने में सक्षम होने के लिए बुनियादी ढांचे के सभी तत्वों को एक पूरे में जोड़ना आवश्यक है - ये डेटाबेस, वेब एप्लिकेशन, प्रॉक्सी सर्वर, बैलेंसर, लॉग और एनालिटिक्स इकट्ठा करने के लिए सर्वर इत्यादि हैं, यानी, हमारे उद्यम के वेब पोर्टल में क्या शामिल है।

इस परिचय को सारांशित करते हुए, निम्नलिखित लेख हमारा इंतजार कर रहे हैं, जो व्यवहार में दिखाएगा कि किसी उद्यम के संपूर्ण हार्डवेयर और सॉफ़्टवेयर बुनियादी ढांचे को कैसे तैनात किया जाए:

लेखों की सूची

  • भाग 1. एक oVirt क्लस्टर 4.3 तैनात करने की तैयारी।
  • भाग 2. oVirt क्लस्टर 4.3 को स्थापित और कॉन्फ़िगर करना।
  • भाग 3. VyOS क्लस्टर स्थापित करना, दोष-सहिष्णु बाहरी रूटिंग का आयोजन करना।
  • भाग 4. सिस्को 3850 स्टैक की स्थापना, इंट्रानेट रूटिंग का आयोजन।

भाग 1. एक oVirt 4.3 क्लस्टर तैनात करने की तैयारी

बुनियादी होस्ट सेटअप

OS को इंस्टाल करना और कॉन्फ़िगर करना सबसे आसान कदम है। ओएस को ठीक से स्थापित और कॉन्फ़िगर करने के तरीके पर बहुत सारे लेख हैं, इसलिए इस बारे में कुछ विशेष देने का प्रयास करने का कोई मतलब नहीं है।

तो, हमारे पास दो Dell PowerEdge R640 होस्ट हैं जिन पर हमें OS स्थापित करने और प्रारंभिक सेटिंग्स करने की आवश्यकता है ताकि उन्हें oVirt 4.3 क्लस्टर में वर्चुअल मशीन चलाने के लिए हाइपरवाइजर के रूप में उपयोग किया जा सके।

चूँकि हम मुफ़्त गैर-व्यावसायिक oVirt सॉफ़्टवेयर का उपयोग करने की योजना बना रहे हैं, इसलिए हमने होस्ट तैनात करने के लिए OS को चुना 7.7 CentOS, हालाँकि oVirt के लिए होस्ट पर अन्य ऑपरेटिंग सिस्टम स्थापित करना संभव है:

  • आरएचईएल पर आधारित एक विशेष निर्माण, तथाकथित। oVirt नोड;
  • ओएस ओरेकल लिनक्स समर 2019 इसकी घोषणा की गई थी इस पर oVirt चालू रखने के बारे में।

OS स्थापित करने से पहले, यह अनुशंसा की जाती है:

  • दोनों होस्ट पर iDRAC नेटवर्क इंटरफ़ेस कॉन्फ़िगर करें;
  • नवीनतम संस्करणों में BIOS और iDRAC के लिए फर्मवेयर अपडेट करें;
  • सर्वर के सिस्टम प्रोफ़ाइल को कॉन्फ़िगर करें, अधिमानतः प्रदर्शन मोड में;
  • सर्वर पर OS स्थापित करने के लिए स्थानीय डिस्क से RAID कॉन्फ़िगर करें (RAID1 अनुशंसित है)।

फिर हम आईडीआरएसी के माध्यम से पहले बनाई गई डिस्क पर ओएस स्थापित करते हैं - इंस्टॉलेशन प्रक्रिया सामान्य है, इसमें कोई विशेष क्षण नहीं हैं। आप आईडीआरएसी के माध्यम से ओएस इंस्टॉलेशन शुरू करने के लिए सर्वर कंसोल तक भी पहुंच सकते हैं, हालांकि कुछ भी आपको मॉनिटर, कीबोर्ड और माउस को सीधे सर्वर से कनेक्ट करने और फ्लैश ड्राइव से ओएस इंस्टॉल करने से नहीं रोकता है।

OS स्थापित करने के बाद, हम इसकी प्रारंभिक सेटिंग्स करते हैं:

systemctl enable network.service
systemctl start network.service
systemctl status network.service

systemctl stop NetworkManager
systemctl disable NetworkManager
systemctl status NetworkManager

yum install -y ntp
systemctl enable ntpd.service
systemctl start ntpd.service

cat /etc/sysconfig/selinux
SELINUX=disabled
SELINUXTYPE=targeted

cat /etc/security/limits.conf
 *               soft    nofile         65536
 *               hard   nofile         65536

cat /etc/sysctl.conf
vm.max_map_count = 262144
vm.swappiness = 1

सॉफ़्टवेयर का मूल सेट स्थापित करना

प्रारंभिक ओएस सेटअप के लिए, आपको सर्वर पर किसी भी नेटवर्क इंटरफ़ेस को कॉन्फ़िगर करने की आवश्यकता है ताकि आप ओएस को अपडेट करने और आवश्यक सॉफ़्टवेयर पैकेज स्थापित करने के लिए इंटरनेट तक पहुंच सकें। यह OS इंस्टालेशन प्रक्रिया के दौरान और उसके बाद दोनों समय किया जा सकता है।

yum -y install epel-release
yum update
yum -y install bind-utils yum-utils net-tools git htop iotop nmon pciutils sysfsutils sysstat mc nc rsync wget traceroute gzip unzip telnet 

उपरोक्त सभी सेटिंग्स और सॉफ़्टवेयर का सेट व्यक्तिगत प्राथमिकता का मामला है, और यह सेट केवल एक अनुशंसा है।

चूँकि हमारा होस्ट एक हाइपरवाइज़र की भूमिका निभाएगा, हम वांछित प्रदर्शन प्रोफ़ाइल को सक्षम करेंगे:

systemctl enable tuned 
systemctl start tuned 
systemctl status tuned 

tuned-adm profile 
tuned-adm profile virtual-host 

आप प्रदर्शन प्रोफ़ाइल के बारे में यहां अधिक पढ़ सकते हैं:अध्याय 4"।

ओएस स्थापित करने के बाद, हम अगले भाग पर आगे बढ़ते हैं - होस्ट पर नेटवर्क इंटरफेस कॉन्फ़िगर करना, और सिस्को 2960X स्विच का ढेर।

सिस्को 2960X स्विच स्टैक को कॉन्फ़िगर करना

हमारे प्रोजेक्ट में, विभिन्न प्रकार के ट्रैफ़िक को अलग करने के लिए, निम्नलिखित वीएलएएन नंबरों का उपयोग किया जाएगा - या एक दूसरे से अलग किए गए डोमेन प्रसारित करें:

VLAN 10 - इंटरनेट
VLAN 17 - प्रबंधन (आईडीआरएसी, भंडारण, स्विच प्रबंधन)
VLAN 32 - वीएम उत्पादन नेटवर्क
VLAN 33 - इंटरकनेक्शन नेटवर्क (बाहरी ठेकेदारों के लिए)
VLAN 34 - वीएम परीक्षण नेटवर्क
VLAN 35 - वीएम डेवलपर नेटवर्क
VLAN 40 - निगरानी नेटवर्क

काम शुरू करने से पहले, आइए L2 स्तर पर एक आरेख दें, जिस पर हमें अंततः आना चाहिए:

दोष-सहिष्णु आईटी बुनियादी ढांचे का निर्माण। भाग 1 - एक oVirt 4.3 क्लस्टर तैनात करने की तैयारी

oVirt होस्ट और वर्चुअल मशीनों के एक-दूसरे के साथ नेटवर्क इंटरेक्शन के लिए, साथ ही हमारे स्टोरेज सिस्टम को प्रबंधित करने के लिए, सिस्को 2960X स्विच के स्टैक को कॉन्फ़िगर करना आवश्यक है।

डेल होस्ट्स में बिल्ट-इन 4-पोर्ट नेटवर्क कार्ड हैं, इसलिए, एक दोष-सहिष्णु नेटवर्क कनेक्शन का उपयोग करके सिस्को 2960X से उनके कनेक्शन को व्यवस्थित करने की सलाह दी जाती है, एक तार्किक इंटरफ़ेस में भौतिक नेटवर्क पोर्ट के समूहीकरण और LACP (802.3ad) प्रोटोकॉल का उपयोग करके:

  • होस्ट पर पहले दो पोर्ट बॉन्डिंग मोड में कॉन्फ़िगर किए गए हैं और 2960X स्विच से जुड़े हैं - यह तार्किक इंटरफ़ेस कॉन्फ़िगर किया जाएगा पुल होस्ट प्रबंधन, निगरानी, ​​ओविर्ट क्लस्टर में अन्य होस्ट के साथ संचार के लिए एक पते के साथ, इसका उपयोग वर्चुअल मशीनों के लाइव माइग्रेशन के लिए भी किया जाएगा;
  • होस्ट पर दूसरे दो पोर्ट भी बॉन्डिंग मोड में कॉन्फ़िगर किए गए हैं और 2960X से जुड़े हैं - इस लॉजिकल इंटरफ़ेस पर oVirt का उपयोग करके, ब्रिज बाद में (संबंधित वीएलएएन में) बनाए जाएंगे जिससे वर्चुअल मशीनें कनेक्ट होंगी।
  • एक ही लॉजिकल इंटरफ़ेस के भीतर दोनों नेटवर्क पोर्ट सक्रिय होंगे, यानी उन पर ट्रैफ़िक को एक साथ, बैलेंसिंग मोड में प्रसारित किया जा सकता है।
  • आईपी ​​पते को छोड़कर, क्लस्टर नोड्स पर नेटवर्क सेटिंग्स बिल्कुल समान होनी चाहिए।

बुनियादी स्विच स्टैक सेटअप 2960X और उसके बंदरगाह

पहले, हमारे स्विच ये होने चाहिए:

  • ऊपर रैक माउंट किया गया;
  • आवश्यक लंबाई के दो विशेष केबलों द्वारा जुड़ा हुआ, उदाहरण के लिए, CAB-STK-E-1M;
  • बिजली आपूर्ति से जुड़ा;
  • उनके प्रारंभिक कॉन्फ़िगरेशन के लिए कंसोल पोर्ट के माध्यम से व्यवस्थापक के कार्य केंद्र से जुड़ा हुआ है।

इसके लिए आवश्यक मार्गदर्शन यहां उपलब्ध है आधिकारिक पेज निर्माता।

उपरोक्त चरणों को पूरा करने के बाद, हम स्विच कॉन्फ़िगर करते हैं।
प्रत्येक आदेश का क्या अर्थ है, यह इस आलेख के ढांचे के भीतर समझा नहीं जाना चाहिए; यदि आवश्यक हो, तो सभी जानकारी स्वतंत्र रूप से पाई जा सकती है।
हमारा लक्ष्य जल्दी से एक स्विच स्टैक स्थापित करना और होस्ट और स्टोरेज प्रबंधन इंटरफेस को इससे जोड़ना है।

1) हम मास्टर स्विच से कनेक्ट होते हैं, विशेषाधिकार प्राप्त मोड पर जाते हैं, फिर कॉन्फ़िगरेशन मोड पर जाते हैं और बुनियादी सेटिंग्स करते हैं।

मूल स्विच कॉन्फ़िगरेशन:

 enable
 configure terminal

 hostname 2960X

 no service pad
 service timestamps debug datetime msec
 service timestamps log datetime localtime show-timezone msec
 no service password-encryption
 service sequence-numbers

 switch 1 priority 15
 switch 2 priority 14
 stack-mac persistent timer 0

 clock timezone MSK 3
  vtp mode transparent
  ip subnet-zero

 vlan 17
  name Management

 vlan 32
  name PROD 

 vlan 33
  name Interconnect

 vlan 34
  name Test

 vlan 35
  name Dev

 vlan 40
  name Monitoring

 spanning-tree mode rapid-pvst
 spanning-tree etherchannel guard misconfig
 spanning-tree portfast bpduguard default
 spanning-tree extend system-id
 spanning-tree vlan 1-40 root primary
 spanning-tree loopguard default
 vlan internal allocation policy ascending
 port-channel load-balance src-dst-ip

 errdisable recovery cause loopback
 errdisable recovery cause bpduguard
 errdisable recovery interval 60

line con 0
 session-timeout 60
 exec-timeout 60 0
 logging synchronous
line vty 5 15
 session-timeout 60
 exec-timeout 60 0
 logging synchronous

 ip http server
 ip http secure-server
 no vstack

interface Vlan1
 no ip address
 shutdown

 exit 

कमांड के साथ कॉन्फिगरेशन को सेव करें "wr मेम"और कमांड के साथ स्विच स्टैक को पुनरारंभ करें"सीमा से अधिक लादना» मास्टर स्विच 1 पर।

2) हम स्टोरेज सिस्टम और आईडीआरएसी सर्वर के नियंत्रण इंटरफेस को जोड़ने के लिए वीएलएएन 17 में एक्सेस मोड (एक्सेस) में स्विच के नेटवर्क पोर्ट को कॉन्फ़िगर करते हैं।

प्रबंधन पोर्ट कॉन्फ़िगर करना:

interface GigabitEthernet1/0/5
 description iDRAC - host1
 switchport access vlan 17
 switchport mode access
 spanning-tree portfast edge

interface GigabitEthernet1/0/6
 description Storage1 - Cntr0/Eth0
 switchport access vlan 17
 switchport mode access
 spanning-tree portfast edge

interface GigabitEthernet2/0/5
 description iDRAC - host2
 switchport access vlan 17
 switchport mode access
 spanning-tree portfast edge

interface GigabitEthernet2/0/6
 description Storage1 – Cntr1/Eth0
 switchport access vlan 17
 switchport mode access
 spanning-tree portfast edge
 exit

3) स्टैक को पुनः लोड करने के बाद, जांचें कि यह सही ढंग से काम करता है:

स्टैक की कार्यप्रणाली की जाँच करना:

2960X#show switch stack-ring speed

Stack Ring Speed        : 20G
Stack Ring Configuration: Full
Stack Ring Protocol     : FlexStack

2960X#show switch stack-ports
  Switch #    Port 1       Port 2
  --------    ------       ------
    1           Ok           Ok
    2           Ok           Ok

2960X#show switch neighbors
  Switch #    Port 1       Port 2
  --------    ------       ------
      1         2             2
      2         1             1

2960X#show switch detail
Switch/Stack Mac Address : 0cd0.f8e4.ХХХХ
Mac persistency wait time: Indefinite
                                           H/W   Current
Switch#  Role   Mac Address     Priority Version  State
----------------------------------------------------------
*1       Master 0cd0.f8e4.ХХХХ    15     4       Ready
 2       Member 0029.c251.ХХХХ     14     4       Ready

         Stack Port Status             Neighbors
Switch#  Port 1     Port 2           Port 1   Port 2
--------------------------------------------------------
  1        Ok         Ok                2        2
  2        Ok         Ok                1        1

4) 2960X स्टैक तक SSH एक्सेस सेट करना

SSH के माध्यम से दूरस्थ रूप से स्टैक को प्रबंधित करने के लिए, हम SVI पर कॉन्फ़िगर किए गए IP 172.20.1.10 का उपयोग करेंगे (वर्चुअल इंटरफ़ेस स्विच करें) वीएलएएन17.

यद्यपि प्रबंधन उद्देश्यों के लिए स्विच पर एक समर्पित समर्पित पोर्ट का उपयोग करना वांछनीय है, यह व्यक्तिगत प्राथमिकता और अवसर का मामला है।

स्विच स्टैक तक SSH पहुंच सेट करना:

ip default-gateway 172.20.1.2

interface vlan 17
 ip address 172.20.1.10 255.255.255.0

hostname 2960X
 ip domain-name hw.home-lab.ru
 no ip domain-lookup

clock set 12:47:04 06 Dec 2019

crypto key generate rsa

ip ssh version 2
ip ssh time-out 90

line vty 0 4
 session-timeout 60
 exec-timeout 60 0
 privilege level 15
 logging synchronous
 transport input ssh

line vty 5 15
 session-timeout 60
 exec-timeout 60 0
 privilege level 15
 logging synchronous
 transport input ssh

aaa new-model
aaa authentication login default local 
username cisco privilege 15 secret my_ssh_password

विशेषाधिकार प्राप्त मोड में प्रवेश करने के लिए एक पासवर्ड सेट करें:

enable secret *myenablepassword*
service password-encryption

एनटीपी सेट करें:

ntp server 85.21.78.8 prefer
ntp server 89.221.207.113
ntp server 185.22.60.71
ntp server 192.36.143.130
ntp server 185.209.85.222

show ntp status
show ntp associations
show clock detail

5) लॉजिकल ईथरचैनल इंटरफेस और होस्ट से जुड़े भौतिक पोर्ट सेट करें। कॉन्फ़िगरेशन में आसानी के लिए, सभी उपलब्ध वीएलएएन को सभी लॉजिकल इंटरफेस पर अनुमति दी जाएगी, लेकिन आम तौर पर केवल वही कॉन्फ़िगर करने की अनुशंसा की जाती है जो आवश्यक है:

ईथरचैनल इंटरफ़ेस कॉन्फ़िगर करना:

interface Port-channel1
 description EtherChannel with Host1-management
 switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 spanning-tree portfast edge trunk

interface Port-channel2
 description EtherChannel with Host2-management
 switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 spanning-tree portfast edge trunk

interface Port-channel3
 description EtherChannel with Host1-VM
 switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 spanning-tree portfast edge trunk

interface Port-channel4
 description EtherChannel with Host2-VM
 switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 spanning-tree portfast edge trunk

interface GigabitEthernet1/0/1
 description Host1-management
 switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 channel-protocol lacp
 channel-group 1 mode active

interface GigabitEthernet1/0/2
 description Host2-management
  switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 channel-protocol lacp
 channel-group 2 mode active

interface GigabitEthernet1/0/3
 description Host1-VM
  switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 channel-protocol lacp
 channel-group 3 mode active

interface GigabitEthernet1/0/4
 description Host2-VM
 switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 channel-protocol lacp
 channel-group 4 mode active

interface GigabitEthernet2/0/1
 description Host1-management
 switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 channel-protocol lacp
 channel-group 1 mode active

interface GigabitEthernet2/0/2
 description Host2-management
  switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 channel-protocol lacp
 channel-group 2 mode active

interface GigabitEthernet2/0/3
 description Host1-VM
  switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 channel-protocol lacp
 channel-group 3 mode active

interface GigabitEthernet2/0/4
 description Host2-VM
 switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 channel-protocol lacp
 channel-group 4 mode active

होस्ट पर वर्चुअल मशीनों के लिए नेटवर्क इंटरफेस का प्रारंभिक कॉन्फ़िगरेशन होस्ट1 и होस्ट2

हम सिस्टम में बॉन्डिंग के संचालन के लिए आवश्यक मॉड्यूल की उपस्थिति की जांच करते हैं, पुलों के प्रबंधन के लिए मॉड्यूल स्थापित करते हैं:

modinfo bonding
modinfo 8021q
yum install bridge-utils

वर्चुअल मशीनों के लिए BOND1 लॉजिकल इंटरफ़ेस और होस्ट पर इसके भौतिक इंटरफ़ेस को कॉन्फ़िगर करना:

cat /etc/sysconfig/network-scripts/ifcfg-bond1
#DESCRIPTION - management
DEVICE=bond1
NAME=bond1
TYPE=Bond
IPV6INIT=no
ONBOOT=yes
USERCTL=no
NM_CONTROLLED=no
BOOTPROTO=none
BONDING_OPTS='mode=4 lacp_rate=1 xmit_hash_policy=2'

cat /etc/sysconfig/network-scripts/ifcfg-em2
#DESCRIPTION - management
DEVICE=em2
TYPE=Ethernet
BOOTPROTO=none
ONBOOT=yes
MASTER=bond1
SLAVE=yes
USERCTL=no 
NM_CONTROLLED=no 

cat /etc/sysconfig/network-scripts/ifcfg-em3
#DESCRIPTION - management
DEVICE=em3
TYPE=Ethernet
BOOTPROTO=none
ONBOOT=yes
MASTER=bond1
SLAVE=yes
USERCTL=no 
NM_CONTROLLED=no 

स्टैक पर सेटिंग्स पूरी करने के बाद 2960X और होस्ट, होस्ट पर नेटवर्क को पुनरारंभ करें, और तार्किक इंटरफ़ेस की संचालन क्षमता की जांच करें।

  • होस्ट पर:

systemctl restart network

cat /proc/net/bonding/bond1
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: IEEE 802.3ad Dynamic link aggregation
Transmit Hash Policy: layer2+3 (2)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0
...
802.3ad info
LACP rate: fast
Min links: 0
Aggregator selection policy (ad_select): stable
System priority: 65535
...
Slave Interface: em2
MII Status: up
Speed: 1000 Mbps
Duplex: full
...
Slave Interface: em3
MII Status: up
Speed: 1000 Mbps
Duplex: full

  • स्विच स्टैक पर 2960X:

2960X#show lacp internal
Flags:  S - Device is requesting Slow LACPDUs
        F - Device is requesting Fast LACPDUs
        A - Device is in Active mode       P - Device is in Passive mode

Channel group 1
                            LACP port     Admin     Oper    Port        Port
Port      Flags   State     Priority      Key       Key     Number      State
Gi1/0/1   SA      bndl      32768         0x1       0x1     0x102       0x3D
Gi2/0/1   SA      bndl      32768         0x1       0x1     0x202       0x3D

2960X#sh etherchannel summary
Flags:  D - down        P - bundled in port-channel
        I - stand-alone s - suspended
        H - Hot-standby (LACP only)
        R - Layer3      S - Layer2
        U - in use      N - not in use, no aggregation
        f - failed to allocate aggregator

        M - not in use, minimum links not met
        m - not in use, port not aggregated due to minimum links not met
        u - unsuitable for bundling
        w - waiting to be aggregated
        d - default port

        A - formed by Auto LAG

Number of channel-groups in use: 11
Number of aggregators:           11

Group  Port-channel  Protocol    Ports
------+-------------+-----------+-----------------------------------------------
1      Po1(SU)         LACP      Gi1/0/1(P)  Gi2/0/1(P)

होस्ट पर क्लस्टर संसाधनों के प्रबंधन के लिए नेटवर्क इंटरफेस का प्रारंभिक कॉन्फ़िगरेशन होस्ट1 и होस्ट2

होस्ट और उसके भौतिक इंटरफ़ेस पर प्रबंधन के लिए BOND1 लॉजिकल इंटरफ़ेस को कॉन्फ़िगर करना:

cat /etc/sysconfig/network-scripts/ifcfg-bond0
#DESCRIPTION - management
DEVICE=bond0
NAME=bond0
TYPE=Bond
BONDING_MASTER=yes
IPV6INIT=no
ONBOOT=yes
USERCTL=no
NM_CONTROLLED=no
BOOTPROTO=none
BONDING_OPTS='mode=4 lacp_rate=1 xmit_hash_policy=2'

cat /etc/sysconfig/network-scripts/ifcfg-em0
#DESCRIPTION - management
DEVICE=em0
TYPE=Ethernet
BOOTPROTO=none
ONBOOT=yes
MASTER=bond0
SLAVE=yes
USERCTL=no 
NM_CONTROLLED=no 

cat /etc/sysconfig/network-scripts/ifcfg-em1
#DESCRIPTION - management
DEVICE=em1
TYPE=Ethernet
BOOTPROTO=none
ONBOOT=yes
MASTER=bond0
SLAVE=yes
USERCTL=no 
NM_CONTROLLED=no 

स्टैक पर सेटिंग्स पूरी करने के बाद 2960X और होस्ट, होस्ट पर नेटवर्क को पुनरारंभ करें, और तार्किक इंटरफ़ेस की संचालन क्षमता की जांच करें।

systemctl restart network
cat /proc/net/bonding/bond1

2960X#show lacp internal
2960X#sh etherchannel summary

प्रत्येक होस्ट पर एक प्रबंधन नेटवर्क इंटरफ़ेस सेट करें VLAN 17, और इसे तार्किक इंटरफ़ेस BOND1 से बांधें:

Host17 पर VLAN1 को कॉन्फ़िगर करना:

cat /etc/sysconfig/network-scripts/ifcfg-bond1.17
DEVICE=bond1.17
NAME=bond1-vlan17
BOOTPROTO=none
ONBOOT=yes 
USERCTL=no 
NM_CONTROLLED=no 
VLAN=yes
MTU=1500  
IPV4_FAILURE_FATAL=yes
IPV6INIT=no
IPADDR=172.20.17.163
NETMASK=255.255.255.0
GATEWAY=172.20.17.2
DEFROUTE=yes
DNS1=172.20.17.8
DNS2=172.20.17.9
ZONE=public

Host17 पर VLAN2 को कॉन्फ़िगर करना:

cat /etc/sysconfig/network-scripts/ifcfg-bond1.17
DEVICE=bond1.17
NAME=bond1-vlan17
BOOTPROTO=none
ONBOOT=yes 
USERCTL=no 
NM_CONTROLLED=no 
VLAN=yes
MTU=1500  
IPV4_FAILURE_FATAL=yes
IPV6INIT=no
IPADDR=172.20.17.164
NETMASK=255.255.255.0
GATEWAY=172.20.17.2
DEFROUTE=yes
DNS1=172.20.17.8
DNS2=172.20.17.9
ZONE=public

हम मेजबानों पर नेटवर्क को पुनरारंभ करते हैं और एक दूसरे के लिए उनकी दृश्यता की जांच करते हैं।

यह सिस्को 2960X स्विच स्टैक का कॉन्फ़िगरेशन पूरा करता है, और यदि सब कुछ सही ढंग से किया गया था, तो अब हमारे पास L2 स्तर पर सभी बुनियादी ढांचे के तत्वों की एक दूसरे से नेटवर्क कनेक्टिविटी है।

Dell MD3820f स्टोरेज सेटअप

स्टोरेज सिस्टम को कॉन्फ़िगर करने पर काम शुरू करने से पहले, इसे पहले से ही सिस्को स्विच स्टैक से जोड़ा जाना चाहिए 2960X प्रबंधन इंटरफ़ेस, साथ ही मेजबानों के लिए भी होस्ट1 и होस्ट2 एफसी के माध्यम से.

भंडारण प्रणाली को स्विच स्टैक से कैसे जोड़ा जाना चाहिए इसकी सामान्य योजना पिछले अध्याय में दी गई थी।

एफसी के माध्यम से मेजबानों के लिए भंडारण को जोड़ने की योजना इस तरह दिखनी चाहिए:

दोष-सहिष्णु आईटी बुनियादी ढांचे का निर्माण। भाग 1 - एक oVirt 4.3 क्लस्टर तैनात करने की तैयारी

कनेक्शन के दौरान, स्टोरेज सिस्टम पर एफसी पोर्ट से जुड़े एफसी एचबीए होस्ट के लिए डब्ल्यूडब्ल्यूपीएन पते लिखना आवश्यक है - यह स्टोरेज सिस्टम पर एलयूएन के लिए होस्ट बाइंडिंग के बाद के कॉन्फ़िगरेशन के लिए आवश्यक होगा।

एडमिनिस्ट्रेटर वर्कस्टेशन पर Dell MD3820f स्टोरेज मैनेजमेंट यूटिलिटी को डाउनलोड और इंस्टॉल करें - पॉवरवॉल्ट मॉड्यूलर डिस्क स्टोरेज मैनेजर (एमडीएसएम).
हम उसके डिफ़ॉल्ट आईपी पते के माध्यम से उससे जुड़ते हैं, और फिर अपने पते को कॉन्फ़िगर करते हैं वीएलएएन17, टीसीपी/आईपी के माध्यम से नियंत्रकों को प्रबंधित करने के लिए:

Storage1:

ControllerA IP - 172.20.1.13, MASK - 255.255.255.0, Gateway - 172.20.1.2
ControllerB IP - 172.20.1.14, MASK - 255.255.255.0, Gateway - 172.20.1.2

पते सेट करने के बाद, हम स्टोरेज प्रबंधन इंटरफ़ेस पर जाते हैं और एक पासवर्ड सेट करते हैं, समय निर्धारित करते हैं, यदि आवश्यक हो तो नियंत्रकों और डिस्क के लिए फर्मवेयर अपडेट करते हैं, आदि।
यह कैसे किया जाता है इसका वर्णन इसमें किया गया है प्रशासन मार्गदर्शिका भंडारण।

उपरोक्त सेटिंग्स करने के बाद, हमें केवल कुछ चीजें करने की आवश्यकता है:

  1. होस्ट एफसी पोर्ट आईडी कॉन्फ़िगर करें - होस्ट पोर्ट पहचानकर्ता.
  2. एक मेजबान समूह बनाएं - मेज़बान समूह और इसमें हमारे दो डेल होस्ट जोड़ें।
  3. इसमें एक डिस्क समूह और वर्चुअल डिस्क (या LUN) बनाएं, जो होस्ट्स को प्रस्तुत किया जाएगा।
  4. होस्ट के लिए वर्चुअल डिस्क (या LUN) की प्रस्तुति को कॉन्फ़िगर करें।

नए होस्ट जोड़ना और होस्ट एफसी पोर्ट के पहचानकर्ताओं को उनके साथ जोड़ना मेनू के माध्यम से किया जाता है - होस्ट मैपिंग -> परिभाषित करें -> मेज़बान...
उदाहरण के लिए, FC HBA होस्ट के WWPN पते सर्वर के iDRAC में पाए जा सकते हैं।

परिणामस्वरूप, हमें इस चित्र जैसा कुछ मिलना चाहिए:

दोष-सहिष्णु आईटी बुनियादी ढांचे का निर्माण। भाग 1 - एक oVirt 4.3 क्लस्टर तैनात करने की तैयारी

एक नया होस्ट समूह जोड़ना और उसमें होस्ट को बाइंड करना मेनू के माध्यम से किया जाता है - होस्ट मैपिंग -> परिभाषित करें -> मेज़बान समूह…
होस्ट के लिए, OS का प्रकार चुनें - लिनक्स (डीएम-एमपी).

होस्ट ग्रुप बनाने के बाद टैब के माध्यम से भंडारण एवं प्रतिलिपि सेवाएँ, एक डिस्क समूह बनाएं - डिस्क समूह, दोष सहनशीलता की आवश्यकताओं के आधार पर एक प्रकार के साथ, उदाहरण के लिए, RAID10, और इसमें आवश्यक आकार की वर्चुअल डिस्क:

दोष-सहिष्णु आईटी बुनियादी ढांचे का निर्माण। भाग 1 - एक oVirt 4.3 क्लस्टर तैनात करने की तैयारी

और अंत में, अंतिम चरण मेजबानों के लिए वर्चुअल डिस्क (या LUN) की प्रस्तुति है।
ऐसा करने के लिए, मेनू के माध्यम से - होस्ट मैपिंग -> चंद्रमा मानचित्रण -> जोड़ें ... हम वर्चुअल डिस्क को नंबर निर्दिष्ट करके होस्ट से जोड़ते हैं।

सब कुछ इस स्क्रीनशॉट जैसा दिखना चाहिए:

दोष-सहिष्णु आईटी बुनियादी ढांचे का निर्माण। भाग 1 - एक oVirt 4.3 क्लस्टर तैनात करने की तैयारी

यहीं पर हम भंडारण सेटअप के साथ समाप्त करते हैं, और यदि सब कुछ सही ढंग से किया गया था, तो मेजबानों को उनके एफसी एचबीए के माध्यम से उन्हें प्रस्तुत एलयूएन देखना चाहिए।
आइए सिस्टम को कनेक्टेड ड्राइव के बारे में जानकारी अपडेट करने के लिए बाध्य करें:

ls -la /sys/class/scsi_host/
echo "- - -" > /sys/class/scsi_host/host[0-9]/scan

आइए देखें कि हमारे सर्वर पर कौन से उपकरण दिखाई देते हैं:

cat /proc/scsi/scsi
Attached devices:
Host: scsi0 Channel: 02 Id: 00 Lun: 00
  Vendor: DELL     Model: PERC H330 Mini   Rev: 4.29
  Type:   Direct-Access                    ANSI  SCSI revision: 05
Host: scsi15 Channel: 00 Id: 00 Lun: 00
  Vendor: DELL     Model: MD38xxf          Rev: 0825
  Type:   Direct-Access                    ANSI  SCSI revision: 05
Host: scsi15 Channel: 00 Id: 00 Lun: 01
  Vendor: DELL     Model: MD38xxf          Rev: 0825
  Type:   Direct-Access                    ANSI  SCSI revision: 05
Host: scsi15 Channel: 00 Id: 00 Lun: 04
  Vendor: DELL     Model: MD38xxf          Rev: 0825
  Type:   Direct-Access                    ANSI  SCSI revision: 05
Host: scsi15 Channel: 00 Id: 00 Lun: 11
  Vendor: DELL     Model: MD38xxf          Rev: 0825
  Type:   Direct-Access                    ANSI  SCSI revision: 05
Host: scsi15 Channel: 00 Id: 00 Lun: 31
  Vendor: DELL     Model: Universal Xport  Rev: 0825
  Type:   Direct-Access                    ANSI  SCSI revision: 05
Host: scsi18 Channel: 00 Id: 00 Lun: 00
  Vendor: DELL     Model: MD38xxf          Rev: 0825
  Type:   Direct-Access                    ANSI  SCSI revision: 05
Host: scsi18 Channel: 00 Id: 00 Lun: 01
  Vendor: DELL     Model: MD38xxf          Rev: 0825
  Type:   Direct-Access                    ANSI  SCSI revision: 05
Host: scsi18 Channel: 00 Id: 00 Lun: 04
  Vendor: DELL     Model: MD38xxf          Rev: 0825
  Type:   Direct-Access                    ANSI  SCSI revision: 05
Host: scsi18 Channel: 00 Id: 00 Lun: 11
  Vendor: DELL     Model: MD38xxf          Rev: 0825
  Type:   Direct-Access                    ANSI  SCSI revision: 05
Host: scsi18 Channel: 00 Id: 00 Lun: 31
  Vendor: DELL     Model: Universal Xport  Rev: 0825
  Type:   Direct-Access                    ANSI  SCSI revision: 05

lsscsi
[0:2:0:0]    disk    DELL     PERC H330 Mini   4.29  /dev/sda
[15:0:0:0]   disk    DELL     MD38xxf          0825  -
[15:0:0:1]   disk    DELL     MD38xxf          0825  /dev/sdb
[15:0:0:4]   disk    DELL     MD38xxf          0825  /dev/sdc
[15:0:0:11]  disk    DELL     MD38xxf          0825  /dev/sdd
[15:0:0:31]  disk    DELL     Universal Xport  0825  -
 [18:0:0:0]   disk    DELL     MD38xxf          0825  -
[18:0:0:1]   disk    DELL     MD38xxf          0825  /dev/sdi
[18:0:0:4]   disk    DELL     MD38xxf          0825  /dev/sdj
[18:0:0:11]  disk    DELL     MD38xxf          0825  /dev/sdk
[18:0:0:31]  disk    DELL     Universal Xport  0825  -

होस्ट्स पर, आप अतिरिक्त रूप से कॉन्फ़िगर भी कर सकते हैं बहुपथ, और यद्यपि oVirt स्थापित करते समय यह स्वयं ही किया जा सकता है, लेकिन MP की शुद्धता की पहले से जांच कर लेना बेहतर है।

डीएम मल्टीपाथ को स्थापित और कॉन्फ़िगर करना

yum install device-mapper-multipath
mpathconf --enable --user_friendly_names y

cat /etc/multipath.conf | egrep -v "^s*(#|$)"
defaults {
    user_friendly_names yes
            find_multipaths yes
}

blacklist {
  wwid 26353900f02796769
  devnode "^(ram|raw|loop|fd|md|dm-|sr|scd|st)[0-9]*"     
  devnode "^hd[a-z]"
 }

एमपी सेवा को ऑटोस्टार्ट पर सेट करें और इसे शुरू करें:

systemctl enable multipathd && systemctl restart multipathd

एमपी ऑपरेशन के लिए लोड किए गए मॉड्यूल के बारे में जानकारी की जाँच करना:

lsmod | grep dm_multipath
dm_multipath           27792  6 dm_service_time
dm_mod                124407  139 dm_multipath,dm_log,dm_mirror

modinfo dm_multipath
filename:       /lib/modules/3.10.0-957.12.2.el7.x86_64/kernel/drivers/md/dm-multipath.ko.xz
license:        GPL
author:         Sistina Software <[email protected]>
description:    device-mapper multipath target
retpoline:      Y
rhelversion:    7.6
srcversion:     985A03DCAF053D4910E53EE
depends:        dm-mod
intree:         Y
vermagic:       3.10.0-957.12.2.el7.x86_64 SMP mod_unload modversions
signer:         CentOS Linux kernel signing key
sig_key:        A3:2D:39:46:F2:D3:58:EA:52:30:1F:63:37:8A:37:A5:54:03:00:45
sig_hashalgo:   sha256

मौजूदा मल्टीपाथ कॉन्फ़िगरेशन का सारांश देखना:

mpathconf
multipath is enabled
find_multipaths is disabled
user_friendly_names is disabled
dm_multipath module is loaded
multipathd is running

स्टोरेज सिस्टम में एक नया LUN जोड़ने और इसे होस्ट के सामने प्रस्तुत करने के बाद, आपको उस पर होस्ट से जुड़े HBA को स्कैन करना होगा।

systemctl reload multipathd
multipath -v2

और अंत में, हम जाँचते हैं कि क्या सभी LUN मेजबानों के लिए भंडारण प्रणाली पर प्रस्तुत किए गए हैं, और क्या सभी के लिए दो पथ हैं।

एमपी ऑपरेशन जांच:

multipath -ll
3600a098000e4b4b3000003175cec1840 dm-2 DELL    ,MD38xxf
size=2.0T features='3 queue_if_no_path pg_init_retries 50' hwhandler='1 rdac' wp=rw
|-+- policy='service-time 0' prio=14 status=active
| `- 15:0:0:1  sdb 8:16  active ready running
`-+- policy='service-time 0' prio=9 status=enabled
  `- 18:0:0:1  sdi 8:128 active ready running
3600a098000e4b48f000002ab5cec1921 dm-6 DELL    ,MD38xxf
size=10T features='3 queue_if_no_path pg_init_retries 50' hwhandler='1 rdac' wp=rw
|-+- policy='service-time 0' prio=14 status=active
| `- 18:0:0:11 sdk 8:160 active ready running
`-+- policy='service-time 0' prio=9 status=enabled
  `- 15:0:0:11 sdd 8:48  active ready running
3600a098000e4b4b3000003c95d171065 dm-3 DELL    ,MD38xxf
size=150G features='3 queue_if_no_path pg_init_retries 50' hwhandler='1 rdac' wp=rw
|-+- policy='service-time 0' prio=14 status=active
| `- 15:0:0:4  sdc 8:32  active ready running
`-+- policy='service-time 0' prio=9 status=enabled
  `- 18:0:0:4  sdj 8:144 active ready running

जैसा कि आप देख सकते हैं, स्टोरेज सिस्टम पर सभी तीन वर्चुअल डिस्क दो तरह से दिखाई देती हैं। इस प्रकार, सभी प्रारंभिक कार्य पूरे हो चुके हैं, जिसका अर्थ है कि आप मुख्य भाग - ओवीर्ट क्लस्टर की स्थापना के लिए आगे बढ़ सकते हैं, जिस पर अगले लेख में चर्चा की जाएगी।

स्रोत: www.habr.com

एक टिप्पणी जोड़ें