ขอเชิญชวนผู้อ่านให้ทำความคุ้นเคยกับหลักการของการสร้างโครงสร้างพื้นฐานที่ทนทานต่อข้อผิดพลาดสำหรับองค์กรขนาดเล็กภายในศูนย์ข้อมูลแห่งเดียว ซึ่งจะกล่าวถึงรายละเอียดในบทความชุดสั้นๆ
prodrome
ใต้ ศูนย์ข้อมูล (ศูนย์ประมวลผลข้อมูล) อาจเข้าใจว่าเป็น:
- ชั้นวางของคุณเองใน "ห้องเซิร์ฟเวอร์" ของคุณเองในสถานที่ขององค์กรซึ่งตรงตามข้อกำหนดขั้นต่ำในการจัดหาแหล่งจ่ายไฟและการระบายความร้อนของอุปกรณ์และยังมีการเข้าถึงอินเทอร์เน็ตผ่านผู้ให้บริการอิสระสองราย
- ชั้นวางเช่าพร้อมอุปกรณ์ของตัวเองตั้งอยู่ในศูนย์ข้อมูลจริง - ที่เรียกว่า การจัดวางซึ่งเป็นไปตามมาตรฐาน Tier III หรือ IV และรับประกันการจ่ายไฟที่เชื่อถือได้ การทำความเย็น และการเข้าถึงอินเทอร์เน็ตที่ทนทานต่อข้อผิดพลาด
- อุปกรณ์ให้เช่าเต็มจำนวนในศูนย์ข้อมูลระดับ III หรือ IV
ตัวเลือกที่พักใดให้เลือกเป็นรายบุคคลในแต่ละกรณี และมักจะขึ้นอยู่กับปัจจัยหลักหลายประการ:
- เหตุใดองค์กรจึงต้องมีโครงสร้างพื้นฐานด้านไอทีเป็นของตัวเอง
- องค์กรต้องการอะไรจากโครงสร้างพื้นฐานด้านไอที (ความน่าเชื่อถือ ความสามารถในการปรับขนาด ความสามารถในการจัดการ ฯลฯ)
- ปริมาณการลงทุนเริ่มแรกในโครงสร้างพื้นฐานด้านไอทีรวมถึงต้นทุนประเภทใด - ทุน (ซึ่งหมายความว่าคุณซื้ออุปกรณ์ของคุณเอง) หรือการดำเนินงาน (โดยปกติจะเช่าอุปกรณ์)
- ขอบเขตการวางแผนขององค์กรเอง
สามารถเขียนได้มากมายเกี่ยวกับปัจจัยที่มีอิทธิพลต่อการตัดสินใจขององค์กรในการสร้างและใช้โครงสร้างพื้นฐานด้านไอที แต่เป้าหมายของเราคือการแสดงให้เห็นในทางปฏิบัติว่าจะสร้างโครงสร้างพื้นฐานนี้อย่างไรเพื่อให้ทนทานต่อข้อผิดพลาดและยังสามารถประหยัดเงินได้อีกด้วย – ลด ค่าใช้จ่ายในการซื้อซอฟต์แวร์เชิงพาณิชย์หรือหลีกเลี่ยงโดยสิ้นเชิง
จากการปฏิบัติในระยะยาวแสดงให้เห็นว่ามันไม่คุ้มค่าที่จะประหยัดฮาร์ดแวร์เนื่องจากคนตระหนี่จ่ายสองเท่าและมากกว่านั้นอีกมาก แต่ขอย้ำอีกครั้งว่าฮาร์ดแวร์ที่ดีเป็นเพียงคำแนะนำและท้ายที่สุดแล้วจะซื้ออะไรกันแน่และจำนวนเท่าใดนั้นขึ้นอยู่กับความสามารถขององค์กรและ "ความโลภ" ของการจัดการ ยิ่งไปกว่านั้น คำว่า "ความโลภ" ควรเข้าใจในความหมายที่ดี เนื่องจากเป็นการดีกว่าที่จะลงทุนในฮาร์ดแวร์ในระยะเริ่มแรก เพื่อไม่ให้เกิดปัญหาร้ายแรงกับการสนับสนุนและการปรับขนาดเพิ่มเติม เนื่องจากการวางแผนที่ไม่ถูกต้องในตอนแรกและ การประหยัดมากเกินไปอาจนำไปสู่ต้นทุนที่สูงกว่าเมื่อเริ่มโครงการ
ดังนั้นข้อมูลเริ่มต้นของโครงการ:
- มีองค์กรแห่งหนึ่งที่ตัดสินใจสร้างเว็บพอร์ทัลของตนเองและนำกิจกรรมของตนมาสู่อินเทอร์เน็ต
- บริษัทตัดสินใจเช่าตู้แร็คเพื่อวางอุปกรณ์ในศูนย์ข้อมูลที่ดีที่ได้รับการรับรองตามมาตรฐาน Tier III
- บริษัทตัดสินใจที่จะไม่ประหยัดฮาร์ดแวร์มากนัก จึงซื้ออุปกรณ์ต่อไปนี้พร้อมการรับประกันและการสนับสนุนเพิ่มเติม:
รายการอุปกรณ์
- เซิร์ฟเวอร์ Dell PowerEdge R640 จริงสองตัวดังต่อไปนี้:
- โปรเซสเซอร์ Intel Xeon Gold 5120 สองตัว
- 512 Gb RAM
- ดิสก์ SAS สองตัวใน RAID1 สำหรับการติดตั้งระบบปฏิบัติการ
- การ์ดเครือข่าย 4G 1 พอร์ตในตัว
- การ์ดเครือข่าย 2G 10 พอร์ต XNUMX ตัว
- FC HBA 2G 16 พอร์ต XNUMX ตัว
- ระบบจัดเก็บข้อมูล 2 คอนโทรลเลอร์ Dell MD3820f เชื่อมต่อผ่าน FC 16G โดยตรงกับโฮสต์ของ Dell
- สวิตช์ระดับที่สองสองตัว - Cisco WS-C2960RX-48FPS-L ซ้อนกัน
- สวิตช์ระดับที่สามสองตัว - Cisco WS-C3850-24T-E, ซ้อนกัน;
- ศูนย์ข้อมูลให้บริการแร็ค, UPS, PDU, คอนโซลเซิร์ฟเวอร์
ดังที่เราเห็น อุปกรณ์ที่มีอยู่มีแนวโน้มที่ดีสำหรับการปรับสเกลแนวนอนและแนวตั้ง หากองค์กรสามารถแข่งขันกับบริษัทอื่นที่มีโปรไฟล์คล้ายกันบนอินเทอร์เน็ต และเริ่มได้รับผลกำไร ซึ่งสามารถนำไปลงทุนในการขยายทรัพยากรสำหรับการแข่งขันต่อไป และการเติบโตของผลกำไร
เราสามารถเพิ่มอุปกรณ์ใดได้บ้างหากองค์กรตัดสินใจที่จะเพิ่มประสิทธิภาพของคลัสเตอร์การประมวลผลของเรา:
- เรามีพอร์ตสำรองจำนวนมากบนสวิตช์ 2960X ซึ่งหมายความว่าเราสามารถเพิ่มเซิร์ฟเวอร์ฮาร์ดแวร์ได้มากขึ้น
- ซื้อสวิตช์ FC เพิ่มเติมสองตัวเพื่อเชื่อมต่อระบบจัดเก็บข้อมูลและเซิร์ฟเวอร์เพิ่มเติม
- สามารถอัพเกรดเซิร์ฟเวอร์ที่มีอยู่ได้ - เพิ่มหน่วยความจำ, แทนที่โปรเซสเซอร์ด้วยโปรเซสเซอร์ที่ทรงพลังกว่า, เชื่อมต่อกับเครือข่าย 10G โดยใช้อะแดปเตอร์เครือข่ายที่มีอยู่
- คุณสามารถเพิ่มชั้นวางดิสก์เพิ่มเติมในระบบจัดเก็บข้อมูลด้วยดิสก์ประเภทที่ต้องการ - SAS, SATA หรือ SSD ขึ้นอยู่กับโหลดที่วางแผนไว้
- หลังจากเพิ่มสวิตช์ FC แล้ว คุณสามารถซื้อระบบจัดเก็บข้อมูลอื่นเพื่อเพิ่มความจุของดิสก์ได้มากขึ้น และหากคุณซื้อตัวเลือกการจำลองแบบระยะไกลแบบพิเศษ คุณจะสามารถตั้งค่าการจำลองข้อมูลระหว่างระบบจัดเก็บข้อมูลทั้งภายในศูนย์ข้อมูลเดียวกันและระหว่างศูนย์ข้อมูลได้ ( แต่สิ่งนี้อยู่นอกเหนือขอบเขตของบทความอยู่แล้ว)
- นอกจากนี้ยังมีสวิตช์ระดับที่สาม - Cisco 3850 ซึ่งสามารถใช้เป็นแกนเครือข่ายที่ทนทานต่อข้อผิดพลาดสำหรับการกำหนดเส้นทางความเร็วสูงระหว่างเครือข่ายภายใน สิ่งนี้จะมีประโยชน์มากในอนาคตเมื่อโครงสร้างพื้นฐานภายในเติบโตขึ้น 3850 ยังมีพอร์ต 10G ซึ่งสามารถใช้ได้ในภายหลังเมื่ออัพเกรดอุปกรณ์เครือข่ายของคุณเป็นความเร็ว 10G
เนื่องจากตอนนี้ไม่มีที่ไหนเลยหากไม่มีการจำลองเสมือน แน่นอนว่าเราจะอยู่ในเทรนด์นี้ โดยเฉพาะอย่างยิ่งเนื่องจากนี่เป็นวิธีที่ยอดเยี่ยมในการลดต้นทุนในการซื้อเซิร์ฟเวอร์ราคาแพงสำหรับองค์ประกอบโครงสร้างพื้นฐานแต่ละรายการ (เว็บเซิร์ฟเวอร์ ฐานข้อมูล ฯลฯ) ซึ่งไม่ได้เป็นเช่นนั้นเสมอไป เหมาะสมที่สุดจะใช้ในกรณีที่โหลดต่ำ และนี่คือสิ่งที่จะเกิดขึ้นเมื่อเริ่มต้นการเปิดตัวโครงการ
นอกจากนี้ การจำลองเสมือนมีข้อดีอื่นๆ มากมายที่เป็นประโยชน์กับเรามาก: ความทนทานต่อข้อผิดพลาดของ VM ต่อความล้มเหลวของเซิร์ฟเวอร์ฮาร์ดแวร์ การโยกย้ายแบบสดระหว่างโหนดคลัสเตอร์ฮาร์ดแวร์สำหรับการบำรุงรักษา การกระจายโหลดด้วยตนเองหรืออัตโนมัติระหว่างโหนดคลัสเตอร์ ฯลฯ
สำหรับฮาร์ดแวร์ที่องค์กรซื้อนั้น การปรับใช้คลัสเตอร์ VMware vSphere ที่พร้อมใช้งานสูงนั้นแนะนำตัวเอง แต่เนื่องจากซอฟต์แวร์ใดๆ จาก VMware ขึ้นชื่อเรื่องป้ายราคา "ม้า" เราจะใช้ซอฟต์แวร์ฟรีอย่างแน่นอนสำหรับการจัดการการจำลองเสมือน -
ซอฟต์แวร์ oVirt จำเป็นต้องรวมองค์ประกอบโครงสร้างพื้นฐานทั้งหมดเป็นหนึ่งเดียวเพื่อให้สามารถทำงานได้อย่างสะดวกกับเครื่องเสมือนที่มีความพร้อมใช้งานสูง - เหล่านี้คือฐานข้อมูล, เว็บแอปพลิเคชัน, พร็อกซีเซิร์ฟเวอร์, บาลานเซอร์, เซิร์ฟเวอร์สำหรับรวบรวมบันทึกและการวิเคราะห์ ฯลฯ นั่นคือสิ่งที่ เว็บพอร์ทัลขององค์กรของเราประกอบด้วย
เพื่อสรุปการแนะนำนี้ เราอาจตั้งตารอบทความต่อไปนี้ ซึ่งจะแสดงในทางปฏิบัติอย่างชัดเจนถึงวิธีการปรับใช้โครงสร้างพื้นฐานฮาร์ดแวร์และซอฟต์แวร์ทั้งหมดขององค์กร:
รายการบทความ
- 1 ส่วนหนึ่ง กำลังเตรียมปรับใช้คลัสเตอร์ oVirt 4.3
- 2 ส่วนหนึ่ง การติดตั้งและกำหนดค่าคลัสเตอร์ oVirt 4.3
- 3 ส่วนหนึ่ง การตั้งค่าคลัสเตอร์ VyOS จัดระเบียบเส้นทางภายนอกที่ทนทานต่อข้อผิดพลาด
- 4 ส่วนหนึ่ง การตั้งค่า Cisco 3850 stack เพื่อจัดระเบียบเส้นทางอินทราเน็ต
ส่วนที่ 1 การเตรียมปรับใช้คลัสเตอร์ oVirt 4.3
การตั้งค่าโฮสต์ขั้นพื้นฐาน
การติดตั้งและกำหนดค่าระบบปฏิบัติการเป็นขั้นตอนที่ง่ายที่สุด มีบทความมากมายเกี่ยวกับวิธีการติดตั้งและกำหนดค่าระบบปฏิบัติการอย่างเหมาะสม ดังนั้นจึงไม่มีประโยชน์ที่จะพยายามเผยแพร่บางสิ่งที่เป็นเอกสิทธิ์เกี่ยวกับเรื่องนี้
ดังนั้นเราจึงมีโฮสต์ Dell PowerEdge R640 สองตัวที่เราจำเป็นต้องติดตั้งระบบปฏิบัติการและดำเนินการการตั้งค่าเบื้องต้นเพื่อใช้เป็นไฮเปอร์ไวเซอร์สำหรับการรันเครื่องเสมือนในคลัสเตอร์ oVirt 4.3
เนื่องจากเราวางแผนที่จะใช้ซอฟต์แวร์ oVirt ฟรีที่ไม่ใช่เชิงพาณิชย์ ระบบปฏิบัติการจึงถูกเลือกสำหรับการปรับใช้โฮสต์ 7.7 CentOSแม้ว่าระบบปฏิบัติการอื่นๆ จะสามารถติดตั้งบนโฮสต์สำหรับ oVirt ได้:
- โครงสร้างพิเศษที่มีพื้นฐานมาจาก RHEL หรือที่เรียกว่า
oVirt โหนด ; - ระบบปฏิบัติการ Oracle Linux ฤดูร้อนปี 2019
มีการประกาศ เกี่ยวกับการสนับสนุนการทำงานของ oVirt
ก่อนติดตั้งระบบปฏิบัติการ ขอแนะนำ:
- กำหนดค่าอินเทอร์เฟซเครือข่าย iDRAC บนโฮสต์ทั้งสอง
- อัปเดตเฟิร์มแวร์ BIOS และ iDRAC เป็นเวอร์ชันล่าสุด
- กำหนดค่าโปรไฟล์ระบบของเซิร์ฟเวอร์ โดยเฉพาะอย่างยิ่งในโหมดประสิทธิภาพ
- กำหนดค่า RAID จากดิสก์ภายในเครื่อง (แนะนำให้ใช้ RAID1) เพื่อติดตั้งระบบปฏิบัติการบนเซิร์ฟเวอร์
จากนั้นเราจะติดตั้งระบบปฏิบัติการบนดิสก์ที่สร้างไว้ก่อนหน้านี้ผ่าน iDRAC - กระบวนการติดตั้งเป็นเรื่องปกติไม่มีช่วงเวลาพิเศษในนั้น สามารถรับสิทธิ์เข้าถึงคอนโซลเซิร์ฟเวอร์เพื่อเริ่มการติดตั้งระบบปฏิบัติการผ่าน iDRAC แม้ว่าจะไม่มีอะไรขัดขวางคุณจากการเชื่อมต่อจอภาพ คีย์บอร์ด และเมาส์เข้ากับเซิร์ฟเวอร์โดยตรง และติดตั้งระบบปฏิบัติการจากแฟลชไดรฟ์ก็ตาม
หลังจากติดตั้งระบบปฏิบัติการแล้ว เราจะทำการตั้งค่าเริ่มต้น:
systemctl enable network.service
systemctl start network.service
systemctl status network.service
systemctl stop NetworkManager
systemctl disable NetworkManager
systemctl status NetworkManager
yum install -y ntp
systemctl enable ntpd.service
systemctl start ntpd.service
cat /etc/sysconfig/selinux
SELINUX=disabled
SELINUXTYPE=targeted
cat /etc/security/limits.conf
* soft nofile 65536
* hard nofile 65536
cat /etc/sysctl.conf
vm.max_map_count = 262144
vm.swappiness = 1
การติดตั้งชุดซอฟต์แวร์พื้นฐาน
ในการกำหนดค่าระบบปฏิบัติการในขั้นต้น คุณต้องกำหนดค่าอินเทอร์เฟซเครือข่ายบนเซิร์ฟเวอร์เพื่อให้คุณสามารถเข้าถึงอินเทอร์เน็ตเพื่ออัปเดตระบบปฏิบัติการและติดตั้งแพ็คเกจซอฟต์แวร์ที่จำเป็น ซึ่งสามารถทำได้ทั้งในระหว่างกระบวนการติดตั้งระบบปฏิบัติการและหลังจากนั้น
yum -y install epel-release
yum update
yum -y install bind-utils yum-utils net-tools git htop iotop nmon pciutils sysfsutils sysstat mc nc rsync wget traceroute gzip unzip telnet
การตั้งค่าและชุดซอฟต์แวร์ข้างต้นทั้งหมดเป็นเรื่องของความชอบส่วนตัว และชุดนี้เป็นเพียงคำแนะนำเท่านั้น
เนื่องจากโฮสต์ของเราจะมีบทบาทเป็นไฮเปอร์ไวเซอร์ เราจะเปิดใช้งานโปรไฟล์ประสิทธิภาพที่จำเป็น:
systemctl enable tuned
systemctl start tuned
systemctl status tuned
tuned-adm profile
tuned-adm profile virtual-host
คุณสามารถอ่านเพิ่มเติมเกี่ยวกับโปรไฟล์ประสิทธิภาพได้ที่นี่: “
หลังจากติดตั้งระบบปฏิบัติการแล้ว เราจะไปยังส่วนถัดไป - การตั้งค่าอินเทอร์เฟซเครือข่ายบนโฮสต์และสแต็กสวิตช์ Cisco 2960X
การกำหนดค่า Cisco 2960X Switch Stack
โครงการของเราจะใช้จำนวน VLAN หรือโดเมนการออกอากาศต่อไปนี้ ซึ่งแยกออกจากกัน เพื่อแยกการรับส่งข้อมูลประเภทต่างๆ:
VLAN10 - อินเทอร์เน็ต
VLAN17 – การจัดการ (iDRAC, ระบบจัดเก็บข้อมูล, การจัดการสวิตช์)
VLAN32 – เครือข่ายการผลิต VM
VLAN33 – โครงข่ายเชื่อมโยงโครงข่าย (ไปยังผู้รับเหมาภายนอก)
VLAN34 – เครือข่ายทดสอบ VM
VLAN35 – เครือข่ายนักพัฒนา VM
VLAN40 – เครือข่ายการตรวจสอบ
ก่อนเริ่มงาน นี่คือไดอะแกรมที่ระดับ L2 ที่เราควรไปถึงในที่สุด:
สำหรับการโต้ตอบบนเครือข่ายของโฮสต์ oVirt และเครื่องเสมือนระหว่างกัน เช่นเดียวกับการจัดการระบบจัดเก็บข้อมูลของเรา จำเป็นต้องกำหนดค่าสวิตช์ Cisco 2960X แบบสแต็ก
โฮสต์ของ Dell มีการ์ดเครือข่าย 4 พอร์ตในตัว ดังนั้นจึงแนะนำให้จัดระเบียบการเชื่อมต่อกับ Cisco 2960X โดยใช้การเชื่อมต่อเครือข่ายที่ทนทานต่อข้อผิดพลาด โดยใช้การจัดกลุ่มพอร์ตเครือข่ายกายภาพเป็นอินเทอร์เฟซแบบลอจิคัล และโปรโตคอล LACP ( 802.3ad):
- พอร์ตสองพอร์ตแรกบนโฮสต์ได้รับการกำหนดค่าในโหมดการเชื่อมและเชื่อมต่อกับสวิตช์ 2960X - อินเทอร์เฟซแบบลอจิคัลนี้จะได้รับการกำหนดค่า สะพาน ด้วยที่อยู่สำหรับการจัดการโฮสต์ การตรวจสอบ การสื่อสารกับโฮสต์อื่น ๆ ในคลัสเตอร์ oVirt มันจะใช้สำหรับการย้ายเครื่องเสมือนแบบสดด้วย
- สองพอร์ตที่สองบนโฮสต์ได้รับการกำหนดค่าในโหมดการเชื่อมและเชื่อมต่อกับ 2960X - บนอินเทอร์เฟซแบบลอจิคัลนี้โดยใช้ oVirt บริดจ์จะถูกสร้างขึ้นในอนาคต (ใน VLAN ที่เกี่ยวข้อง) ซึ่งจะเชื่อมต่อเครื่องเสมือน
- พอร์ตเครือข่ายทั้งสองพอร์ตภายในอินเทอร์เฟซแบบลอจิคัลเดียวกันจะเปิดใช้งานอยู่ เช่น การรับส่งข้อมูลสามารถส่งพร้อมกันได้ในโหมดสมดุล
- การตั้งค่าเครือข่ายบนโหนดคลัสเตอร์จะต้องเหมือนกันทุกประการ ยกเว้นที่อยู่ IP
การตั้งค่าสแตกสวิตช์พื้นฐาน 2960X และพอร์ตของมัน
สวิตช์ของเราจะต้องเป็น:
- ติดตั้งชั้นวาง;
- เชื่อมต่อผ่านสายเคเบิลพิเศษสองเส้นที่มีความยาวตามต้องการเช่น CAB-STK-E-1M
- เชื่อมต่อกับแหล่งจ่ายไฟ
- เชื่อมต่อกับเวิร์กสเตชันของผู้ดูแลระบบผ่านพอร์ตคอนโซลสำหรับการกำหนดค่าเริ่มต้น
คำแนะนำที่จำเป็นสำหรับเรื่องนี้มีอยู่ที่
หลังจากทำตามขั้นตอนข้างต้นเสร็จแล้ว เราก็กำหนดค่าสวิตช์
ความหมายของแต่ละคำสั่งไม่ได้มีวัตถุประสงค์เพื่อถอดรหัสภายในกรอบของบทความนี้ หากจำเป็น คุณสามารถค้นหาข้อมูลทั้งหมดได้อย่างอิสระ
เป้าหมายของเราคือการกำหนดค่าสแตกสวิตช์โดยเร็วที่สุดและเชื่อมต่อโฮสต์และอินเทอร์เฟซการจัดการพื้นที่เก็บข้อมูลเข้ากับสวิตช์
1) เชื่อมต่อกับสวิตช์หลัก ไปที่โหมดสิทธิพิเศษ จากนั้นไปที่โหมดการกำหนดค่า และทำการตั้งค่าพื้นฐาน
การกำหนดค่าสวิตช์พื้นฐาน:
enable
configure terminal
hostname 2960X
no service pad
service timestamps debug datetime msec
service timestamps log datetime localtime show-timezone msec
no service password-encryption
service sequence-numbers
switch 1 priority 15
switch 2 priority 14
stack-mac persistent timer 0
clock timezone MSK 3
vtp mode transparent
ip subnet-zero
vlan 17
name Management
vlan 32
name PROD
vlan 33
name Interconnect
vlan 34
name Test
vlan 35
name Dev
vlan 40
name Monitoring
spanning-tree mode rapid-pvst
spanning-tree etherchannel guard misconfig
spanning-tree portfast bpduguard default
spanning-tree extend system-id
spanning-tree vlan 1-40 root primary
spanning-tree loopguard default
vlan internal allocation policy ascending
port-channel load-balance src-dst-ip
errdisable recovery cause loopback
errdisable recovery cause bpduguard
errdisable recovery interval 60
line con 0
session-timeout 60
exec-timeout 60 0
logging synchronous
line vty 5 15
session-timeout 60
exec-timeout 60 0
logging synchronous
ip http server
ip http secure-server
no vstack
interface Vlan1
no ip address
shutdown
exit
เราบันทึกการกำหนดค่าด้วยคำสั่ง “ฉัน" และรีบูตสวิตช์สแต็กด้วยคำสั่ง "โหลด» บนสวิตช์หลัก 1
2) เรากำหนดค่าพอร์ตเครือข่ายของสวิตช์ในโหมดการเข้าถึงใน VLAN 17 เพื่อเชื่อมต่ออินเทอร์เฟซการจัดการของระบบจัดเก็บข้อมูลและเซิร์ฟเวอร์ iDRAC
การตั้งค่าพอร์ตการจัดการ:
interface GigabitEthernet1/0/5
description iDRAC - host1
switchport access vlan 17
switchport mode access
spanning-tree portfast edge
interface GigabitEthernet1/0/6
description Storage1 - Cntr0/Eth0
switchport access vlan 17
switchport mode access
spanning-tree portfast edge
interface GigabitEthernet2/0/5
description iDRAC - host2
switchport access vlan 17
switchport mode access
spanning-tree portfast edge
interface GigabitEthernet2/0/6
description Storage1 – Cntr1/Eth0
switchport access vlan 17
switchport mode access
spanning-tree portfast edge
exit
3) หลังจากโหลดสแต็กใหม่แล้ว ให้ตรวจสอบว่าทำงานได้อย่างถูกต้อง:
ตรวจสอบการทำงานของสแต็ก:
2960X#show switch stack-ring speed
Stack Ring Speed : 20G
Stack Ring Configuration: Full
Stack Ring Protocol : FlexStack
2960X#show switch stack-ports
Switch # Port 1 Port 2
-------- ------ ------
1 Ok Ok
2 Ok Ok
2960X#show switch neighbors
Switch # Port 1 Port 2
-------- ------ ------
1 2 2
2 1 1
2960X#show switch detail
Switch/Stack Mac Address : 0cd0.f8e4.ХХХХ
Mac persistency wait time: Indefinite
H/W Current
Switch# Role Mac Address Priority Version State
----------------------------------------------------------
*1 Master 0cd0.f8e4.ХХХХ 15 4 Ready
2 Member 0029.c251.ХХХХ 14 4 Ready
Stack Port Status Neighbors
Switch# Port 1 Port 2 Port 1 Port 2
--------------------------------------------------------
1 Ok Ok 2 2
2 Ok Ok 1 1
4) การตั้งค่าการเข้าถึง SSH ไปยังสแต็ก 2960X
ในการจัดการสแต็กจากระยะไกลผ่าน SSH เราจะใช้ IP 172.20.1.10 ที่กำหนดค่าไว้สำหรับ SVI (สลับอินเทอร์เฟซเสมือน) VLAN17.
แม้ว่าจะแนะนำให้ใช้พอร์ตเฉพาะบนสวิตช์เพื่อการจัดการ แต่นี่ก็เป็นเรื่องของความชอบและความสามารถส่วนบุคคล
การกำหนดค่าการเข้าถึง SSH ไปยังสแต็กสวิตช์:
ip default-gateway 172.20.1.2
interface vlan 17
ip address 172.20.1.10 255.255.255.0
hostname 2960X
ip domain-name hw.home-lab.ru
no ip domain-lookup
clock set 12:47:04 06 Dec 2019
crypto key generate rsa
ip ssh version 2
ip ssh time-out 90
line vty 0 4
session-timeout 60
exec-timeout 60 0
privilege level 15
logging synchronous
transport input ssh
line vty 5 15
session-timeout 60
exec-timeout 60 0
privilege level 15
logging synchronous
transport input ssh
aaa new-model
aaa authentication login default local
username cisco privilege 15 secret my_ssh_password
ตั้งรหัสผ่านเพื่อเข้าสู่โหมดสิทธิพิเศษ:
enable secret *myenablepassword*
service password-encryption
การตั้งค่า NTP:
ntp server 85.21.78.8 prefer
ntp server 89.221.207.113
ntp server 185.22.60.71
ntp server 192.36.143.130
ntp server 185.209.85.222
show ntp status
show ntp associations
show clock detail
5) กำหนดค่าอินเทอร์เฟซอีเธอร์แชนเนลแบบลอจิคัลและพอร์ตฟิสิคัลที่เชื่อมต่อกับโฮสต์ เพื่อความสะดวกในการกำหนดค่า VLAN ที่มีอยู่ทั้งหมดจะถูกเปิดใช้งานบนอินเทอร์เฟซแบบลอจิคัลทั้งหมด แต่โดยทั่วไปแนะนำให้กำหนดค่าเฉพาะสิ่งที่จำเป็นเท่านั้น:
การกำหนดค่าอินเทอร์เฟซ Etherchannel:
interface Port-channel1
description EtherChannel with Host1-management
switchport trunk allowed vlan 10,17,30-40
switchport mode trunk
spanning-tree portfast edge trunk
interface Port-channel2
description EtherChannel with Host2-management
switchport trunk allowed vlan 10,17,30-40
switchport mode trunk
spanning-tree portfast edge trunk
interface Port-channel3
description EtherChannel with Host1-VM
switchport trunk allowed vlan 10,17,30-40
switchport mode trunk
spanning-tree portfast edge trunk
interface Port-channel4
description EtherChannel with Host2-VM
switchport trunk allowed vlan 10,17,30-40
switchport mode trunk
spanning-tree portfast edge trunk
interface GigabitEthernet1/0/1
description Host1-management
switchport trunk allowed vlan 10,17,30-40
switchport mode trunk
channel-protocol lacp
channel-group 1 mode active
interface GigabitEthernet1/0/2
description Host2-management
switchport trunk allowed vlan 10,17,30-40
switchport mode trunk
channel-protocol lacp
channel-group 2 mode active
interface GigabitEthernet1/0/3
description Host1-VM
switchport trunk allowed vlan 10,17,30-40
switchport mode trunk
channel-protocol lacp
channel-group 3 mode active
interface GigabitEthernet1/0/4
description Host2-VM
switchport trunk allowed vlan 10,17,30-40
switchport mode trunk
channel-protocol lacp
channel-group 4 mode active
interface GigabitEthernet2/0/1
description Host1-management
switchport trunk allowed vlan 10,17,30-40
switchport mode trunk
channel-protocol lacp
channel-group 1 mode active
interface GigabitEthernet2/0/2
description Host2-management
switchport trunk allowed vlan 10,17,30-40
switchport mode trunk
channel-protocol lacp
channel-group 2 mode active
interface GigabitEthernet2/0/3
description Host1-VM
switchport trunk allowed vlan 10,17,30-40
switchport mode trunk
channel-protocol lacp
channel-group 3 mode active
interface GigabitEthernet2/0/4
description Host2-VM
switchport trunk allowed vlan 10,17,30-40
switchport mode trunk
channel-protocol lacp
channel-group 4 mode active
การกำหนดค่าเริ่มต้นของอินเทอร์เฟซเครือข่ายสำหรับเครื่องเสมือนบนโฮสต์ โฮสต์1 и โฮสต์2
เราตรวจสอบการมีอยู่ของโมดูลที่จำเป็นสำหรับการยึดเกาะในการทำงานในระบบ ติดตั้งโมดูลสำหรับควบคุมบริดจ์:
modinfo bonding
modinfo 8021q
yum install bridge-utils
การกำหนดค่าอินเตอร์เฟสแบบลอจิคัล BOND1 สำหรับเครื่องเสมือนและอินเตอร์เฟสแบบฟิสิคัลบนโฮสต์:
cat /etc/sysconfig/network-scripts/ifcfg-bond1
#DESCRIPTION - management
DEVICE=bond1
NAME=bond1
TYPE=Bond
IPV6INIT=no
ONBOOT=yes
USERCTL=no
NM_CONTROLLED=no
BOOTPROTO=none
BONDING_OPTS='mode=4 lacp_rate=1 xmit_hash_policy=2'
cat /etc/sysconfig/network-scripts/ifcfg-em2
#DESCRIPTION - management
DEVICE=em2
TYPE=Ethernet
BOOTPROTO=none
ONBOOT=yes
MASTER=bond1
SLAVE=yes
USERCTL=no
NM_CONTROLLED=no
cat /etc/sysconfig/network-scripts/ifcfg-em3
#DESCRIPTION - management
DEVICE=em3
TYPE=Ethernet
BOOTPROTO=none
ONBOOT=yes
MASTER=bond1
SLAVE=yes
USERCTL=no
NM_CONTROLLED=no
หลังจากตั้งค่าบนสแต็กเสร็จแล้ว 2960H และโฮสต์ เราจะรีสตาร์ทเครือข่ายบนโฮสต์และตรวจสอบการทำงานของอินเทอร์เฟซแบบลอจิคัล
- บนโฮสต์:
systemctl restart network
cat /proc/net/bonding/bond1
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)
Bonding Mode: IEEE 802.3ad Dynamic link aggregation
Transmit Hash Policy: layer2+3 (2)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0
...
802.3ad info
LACP rate: fast
Min links: 0
Aggregator selection policy (ad_select): stable
System priority: 65535
...
Slave Interface: em2
MII Status: up
Speed: 1000 Mbps
Duplex: full
...
Slave Interface: em3
MII Status: up
Speed: 1000 Mbps
Duplex: full
- บนสแต็กสวิตช์ 2960H:
2960X#show lacp internal
Flags: S - Device is requesting Slow LACPDUs
F - Device is requesting Fast LACPDUs
A - Device is in Active mode P - Device is in Passive mode
Channel group 1
LACP port Admin Oper Port Port
Port Flags State Priority Key Key Number State
Gi1/0/1 SA bndl 32768 0x1 0x1 0x102 0x3D
Gi2/0/1 SA bndl 32768 0x1 0x1 0x202 0x3D
2960X#sh etherchannel summary
Flags: D - down P - bundled in port-channel
I - stand-alone s - suspended
H - Hot-standby (LACP only)
R - Layer3 S - Layer2
U - in use N - not in use, no aggregation
f - failed to allocate aggregator
M - not in use, minimum links not met
m - not in use, port not aggregated due to minimum links not met
u - unsuitable for bundling
w - waiting to be aggregated
d - default port
A - formed by Auto LAG
Number of channel-groups in use: 11
Number of aggregators: 11
Group Port-channel Protocol Ports
------+-------------+-----------+-----------------------------------------------
1 Po1(SU) LACP Gi1/0/1(P) Gi2/0/1(P)
การกำหนดค่าเริ่มต้นของอินเทอร์เฟซเครือข่ายสำหรับการจัดการทรัพยากรคลัสเตอร์บนโฮสต์ โฮสต์1 и โฮสต์2
การกำหนดค่าอินเทอร์เฟซแบบลอจิคัล BOND1 สำหรับการจัดการและอินเทอร์เฟซแบบฟิสิคัลบนโฮสต์:
cat /etc/sysconfig/network-scripts/ifcfg-bond0
#DESCRIPTION - management
DEVICE=bond0
NAME=bond0
TYPE=Bond
BONDING_MASTER=yes
IPV6INIT=no
ONBOOT=yes
USERCTL=no
NM_CONTROLLED=no
BOOTPROTO=none
BONDING_OPTS='mode=4 lacp_rate=1 xmit_hash_policy=2'
cat /etc/sysconfig/network-scripts/ifcfg-em0
#DESCRIPTION - management
DEVICE=em0
TYPE=Ethernet
BOOTPROTO=none
ONBOOT=yes
MASTER=bond0
SLAVE=yes
USERCTL=no
NM_CONTROLLED=no
cat /etc/sysconfig/network-scripts/ifcfg-em1
#DESCRIPTION - management
DEVICE=em1
TYPE=Ethernet
BOOTPROTO=none
ONBOOT=yes
MASTER=bond0
SLAVE=yes
USERCTL=no
NM_CONTROLLED=no
หลังจากตั้งค่าบนสแต็กเสร็จแล้ว 2960H และโฮสต์ เราจะรีสตาร์ทเครือข่ายบนโฮสต์และตรวจสอบการทำงานของอินเทอร์เฟซแบบลอจิคัล
systemctl restart network
cat /proc/net/bonding/bond1
2960X#show lacp internal
2960X#sh etherchannel summary
เรากำหนดค่าอินเทอร์เฟซเครือข่ายควบคุมในแต่ละโฮสต์ VLAN17และผูกเข้ากับโลจิคัลอินเตอร์เฟส BOND1:
การกำหนดค่า VLAN17 บนโฮสต์ 1:
cat /etc/sysconfig/network-scripts/ifcfg-bond1.17
DEVICE=bond1.17
NAME=bond1-vlan17
BOOTPROTO=none
ONBOOT=yes
USERCTL=no
NM_CONTROLLED=no
VLAN=yes
MTU=1500
IPV4_FAILURE_FATAL=yes
IPV6INIT=no
IPADDR=172.20.17.163
NETMASK=255.255.255.0
GATEWAY=172.20.17.2
DEFROUTE=yes
DNS1=172.20.17.8
DNS2=172.20.17.9
ZONE=public
การกำหนดค่า VLAN17 บนโฮสต์ 2:
cat /etc/sysconfig/network-scripts/ifcfg-bond1.17
DEVICE=bond1.17
NAME=bond1-vlan17
BOOTPROTO=none
ONBOOT=yes
USERCTL=no
NM_CONTROLLED=no
VLAN=yes
MTU=1500
IPV4_FAILURE_FATAL=yes
IPV6INIT=no
IPADDR=172.20.17.164
NETMASK=255.255.255.0
GATEWAY=172.20.17.2
DEFROUTE=yes
DNS1=172.20.17.8
DNS2=172.20.17.9
ZONE=public
เรารีสตาร์ทเครือข่ายบนโฮสต์และตรวจสอบการมองเห็นซึ่งกันและกัน
การดำเนินการนี้จะทำให้การกำหนดค่าสแต็กของสวิตช์ Cisco 2960X เสร็จสมบูรณ์ และหากทุกอย่างถูกต้อง ตอนนี้เรามีการเชื่อมต่อเครือข่ายขององค์ประกอบโครงสร้างพื้นฐานทั้งหมดถึงกันที่ระดับ L2
การตั้งค่าระบบจัดเก็บข้อมูล Dell MD3820f
ก่อนที่จะเริ่มงานในการตั้งค่าระบบจัดเก็บข้อมูล จะต้องเชื่อมต่อกับสวิตช์ Cisco จำนวนมากก่อน 2960H อินเทอร์เฟซการควบคุมตลอดจนโฮสต์ โฮสต์1 и โฮสต์2 ผ่านทางเอฟซี
แผนภาพทั่วไปของวิธีการเชื่อมต่อระบบจัดเก็บข้อมูลกับสแต็กสวิตช์มีให้ไว้ในบทที่แล้ว
แผนภาพสำหรับเชื่อมต่อระบบจัดเก็บข้อมูลผ่าน FC ไปยังโฮสต์ควรมีลักษณะดังนี้:
ในระหว่างการเชื่อมต่อ คุณต้องจดที่อยู่ WWPN สำหรับโฮสต์ FC HBA ที่เชื่อมต่อกับพอร์ต FC บนระบบจัดเก็บข้อมูล ซึ่งจำเป็นสำหรับการตั้งค่าการเชื่อมโยงโฮสต์กับ LUN บนระบบจัดเก็บข้อมูลในภายหลัง
บนเวิร์กสเตชันของผู้ดูแลระบบ ให้ดาวน์โหลดและติดตั้งยูทิลิตี้สำหรับจัดการระบบจัดเก็บข้อมูล Dell MD3820f – ตัวจัดการพื้นที่เก็บข้อมูลดิสก์ PowerVault Modular (เอ็มดีเอสเอ็ม).
เราเชื่อมต่อผ่านที่อยู่ IP เริ่มต้น จากนั้นกำหนดค่าที่อยู่ของเรา VLAN17เพื่อจัดการคอนโทรลเลอร์ผ่าน TCP/IP:
ที่เก็บข้อมูล 1:
ControllerA IP - 172.20.1.13, MASK - 255.255.255.0, Gateway - 172.20.1.2
ControllerB IP - 172.20.1.14, MASK - 255.255.255.0, Gateway - 172.20.1.2
หลังจากตั้งค่าที่อยู่แล้ว ให้ไปที่อินเทอร์เฟซการจัดการพื้นที่เก็บข้อมูลและตั้งรหัสผ่าน ตั้งเวลา อัปเดตเฟิร์มแวร์สำหรับคอนโทรลเลอร์และดิสก์ หากจำเป็น เป็นต้น
วิธีการดำเนินการนี้อธิบายไว้ใน
หลังจากตั้งค่าข้างต้นเสร็จแล้ว เราจะต้องดำเนินการเพียงไม่กี่ขั้นตอน:
- กำหนดค่า ID พอร์ตโฮสต์ FC – ตัวระบุพอร์ตโฮสต์.
- สร้างกลุ่มโฮสต์ – กลุ่มเจ้าภาพ และเพิ่มโฮสต์ Dell สองเครื่องของเราเข้าไป
- สร้างกลุ่มดิสก์และดิสก์เสมือน (หรือ LUN) ในกลุ่มที่จะนำเสนอต่อโฮสต์
- กำหนดค่าการนำเสนอดิสก์เสมือน (หรือ LUN) สำหรับโฮสต์
การเพิ่มโฮสต์ใหม่และตัวระบุพอร์ต FC ของโฮสต์ที่มีผลผูกพันนั้นทำได้ผ่านเมนู - การแมปโฮสต์ -> กำหนด -> เจ้าภาพ...
ที่อยู่ WWPN ของโฮสต์ FC HBA สามารถพบได้ในเซิร์ฟเวอร์ iDRAC
เป็นผลให้เราควรได้รับสิ่งนี้:
การเพิ่มกลุ่มโฮสต์ใหม่และโฮสต์ที่มีผลผูกพันนั้นทำได้ผ่านเมนู - การแมปโฮสต์ -> กำหนด -> กลุ่มเจ้าภาพ…
สำหรับโฮสต์ ให้เลือกประเภทระบบปฏิบัติการ – ลินุกซ์ (DM-MP).
หลังจากสร้างกลุ่มโฮสต์แล้วให้ผ่านแท็บ บริการจัดเก็บและถ่ายเอกสารสร้างกลุ่มดิสก์ – กลุ่มดิสก์โดยมีประเภทขึ้นอยู่กับข้อกำหนดสำหรับความทนทานต่อข้อผิดพลาด เช่น RAID10 และดิสก์เสมือนในขนาดที่ต้องการ:
และสุดท้าย ขั้นตอนสุดท้ายคือการนำเสนอดิสก์เสมือน (หรือ LUN) แก่โฮสต์
หากต้องการทำสิ่งนี้ผ่านเมนู - การแมปโฮสต์ -> การทำแผนที่ดวงจันทร์ -> เพิ่ม ... เราเชื่อมโยงดิสก์เสมือนกับโฮสต์โดยการกำหนดหมายเลขให้กับดิสก์เหล่านั้น
ทุกอย่างควรมีลักษณะเหมือนภาพหน้าจอนี้:
นี่คือขั้นตอนที่เราตั้งค่าระบบจัดเก็บข้อมูลให้เสร็จสิ้น และหากทุกอย่างถูกต้อง โฮสต์ควรเห็น LUN ที่แสดงให้พวกเขาผ่าน FC HBA
บังคับให้ระบบอัปเดตข้อมูลเกี่ยวกับดิสก์ที่เชื่อมต่อ:
ls -la /sys/class/scsi_host/
echo "- - -" > /sys/class/scsi_host/host[0-9]/scan
มาดูกันว่าอุปกรณ์ใดบ้างที่มองเห็นได้บนเซิร์ฟเวอร์ของเรา:
cat /proc/scsi/scsi
Attached devices:
Host: scsi0 Channel: 02 Id: 00 Lun: 00
Vendor: DELL Model: PERC H330 Mini Rev: 4.29
Type: Direct-Access ANSI SCSI revision: 05
Host: scsi15 Channel: 00 Id: 00 Lun: 00
Vendor: DELL Model: MD38xxf Rev: 0825
Type: Direct-Access ANSI SCSI revision: 05
Host: scsi15 Channel: 00 Id: 00 Lun: 01
Vendor: DELL Model: MD38xxf Rev: 0825
Type: Direct-Access ANSI SCSI revision: 05
Host: scsi15 Channel: 00 Id: 00 Lun: 04
Vendor: DELL Model: MD38xxf Rev: 0825
Type: Direct-Access ANSI SCSI revision: 05
Host: scsi15 Channel: 00 Id: 00 Lun: 11
Vendor: DELL Model: MD38xxf Rev: 0825
Type: Direct-Access ANSI SCSI revision: 05
Host: scsi15 Channel: 00 Id: 00 Lun: 31
Vendor: DELL Model: Universal Xport Rev: 0825
Type: Direct-Access ANSI SCSI revision: 05
Host: scsi18 Channel: 00 Id: 00 Lun: 00
Vendor: DELL Model: MD38xxf Rev: 0825
Type: Direct-Access ANSI SCSI revision: 05
Host: scsi18 Channel: 00 Id: 00 Lun: 01
Vendor: DELL Model: MD38xxf Rev: 0825
Type: Direct-Access ANSI SCSI revision: 05
Host: scsi18 Channel: 00 Id: 00 Lun: 04
Vendor: DELL Model: MD38xxf Rev: 0825
Type: Direct-Access ANSI SCSI revision: 05
Host: scsi18 Channel: 00 Id: 00 Lun: 11
Vendor: DELL Model: MD38xxf Rev: 0825
Type: Direct-Access ANSI SCSI revision: 05
Host: scsi18 Channel: 00 Id: 00 Lun: 31
Vendor: DELL Model: Universal Xport Rev: 0825
Type: Direct-Access ANSI SCSI revision: 05
lsscsi
[0:2:0:0] disk DELL PERC H330 Mini 4.29 /dev/sda
[15:0:0:0] disk DELL MD38xxf 0825 -
[15:0:0:1] disk DELL MD38xxf 0825 /dev/sdb
[15:0:0:4] disk DELL MD38xxf 0825 /dev/sdc
[15:0:0:11] disk DELL MD38xxf 0825 /dev/sdd
[15:0:0:31] disk DELL Universal Xport 0825 -
[18:0:0:0] disk DELL MD38xxf 0825 -
[18:0:0:1] disk DELL MD38xxf 0825 /dev/sdi
[18:0:0:4] disk DELL MD38xxf 0825 /dev/sdj
[18:0:0:11] disk DELL MD38xxf 0825 /dev/sdk
[18:0:0:31] disk DELL Universal Xport 0825 -
บนโฮสต์ คุณสามารถกำหนดค่าเพิ่มเติมได้ หลายเส้นทางและแม้ว่าเมื่อติดตั้ง oVirt ก็สามารถทำเองได้ แต่ก็ควรตรวจสอบการทำงานที่ถูกต้องของ MP ล่วงหน้าด้วยตัวเองจะดีกว่า
การติดตั้งและการกำหนดค่า DM Multipath
yum install device-mapper-multipath
mpathconf --enable --user_friendly_names y
cat /etc/multipath.conf | egrep -v "^s*(#|$)"
defaults {
user_friendly_names yes
find_multipaths yes
}
blacklist {
wwid 26353900f02796769
devnode "^(ram|raw|loop|fd|md|dm-|sr|scd|st)[0-9]*"
devnode "^hd[a-z]"
}
ตั้งค่าบริการ MP ให้เริ่มอัตโนมัติและเปิดใช้งาน:
systemctl enable multipathd && systemctl restart multipathd
การตรวจสอบข้อมูลเกี่ยวกับโมดูลที่โหลดสำหรับการทำงานของ MP:
lsmod | grep dm_multipath
dm_multipath 27792 6 dm_service_time
dm_mod 124407 139 dm_multipath,dm_log,dm_mirror
modinfo dm_multipath
filename: /lib/modules/3.10.0-957.12.2.el7.x86_64/kernel/drivers/md/dm-multipath.ko.xz
license: GPL
author: Sistina Software <[email protected]>
description: device-mapper multipath target
retpoline: Y
rhelversion: 7.6
srcversion: 985A03DCAF053D4910E53EE
depends: dm-mod
intree: Y
vermagic: 3.10.0-957.12.2.el7.x86_64 SMP mod_unload modversions
signer: CentOS Linux kernel signing key
sig_key: A3:2D:39:46:F2:D3:58:EA:52:30:1F:63:37:8A:37:A5:54:03:00:45
sig_hashalgo: sha256
มาดูข้อมูลสรุปเกี่ยวกับการกำหนดค่าหลายเส้นทางที่มีอยู่:
mpathconf
multipath is enabled
find_multipaths is disabled
user_friendly_names is disabled
dm_multipath module is loaded
multipathd is running
หลังจากเพิ่ม LUN ใหม่ให้กับระบบจัดเก็บข้อมูลและนำเสนอต่อโฮสต์แล้ว คุณจะต้องสแกน HBA ที่เชื่อมต่อกับโฮสต์บนนั้น
systemctl reload multipathd
multipath -v2
และสุดท้าย เราจะตรวจสอบว่ามีการแสดง LUN ทั้งหมดบนระบบจัดเก็บข้อมูลสำหรับโฮสต์หรือไม่ และมีสองเส้นทางสำหรับทั้งหมดหรือไม่
การตรวจสอบการทำงานของ MP:
multipath -ll
3600a098000e4b4b3000003175cec1840 dm-2 DELL ,MD38xxf
size=2.0T features='3 queue_if_no_path pg_init_retries 50' hwhandler='1 rdac' wp=rw
|-+- policy='service-time 0' prio=14 status=active
| `- 15:0:0:1 sdb 8:16 active ready running
`-+- policy='service-time 0' prio=9 status=enabled
`- 18:0:0:1 sdi 8:128 active ready running
3600a098000e4b48f000002ab5cec1921 dm-6 DELL ,MD38xxf
size=10T features='3 queue_if_no_path pg_init_retries 50' hwhandler='1 rdac' wp=rw
|-+- policy='service-time 0' prio=14 status=active
| `- 18:0:0:11 sdk 8:160 active ready running
`-+- policy='service-time 0' prio=9 status=enabled
`- 15:0:0:11 sdd 8:48 active ready running
3600a098000e4b4b3000003c95d171065 dm-3 DELL ,MD38xxf
size=150G features='3 queue_if_no_path pg_init_retries 50' hwhandler='1 rdac' wp=rw
|-+- policy='service-time 0' prio=14 status=active
| `- 15:0:0:4 sdc 8:32 active ready running
`-+- policy='service-time 0' prio=9 status=enabled
`- 18:0:0:4 sdj 8:144 active ready running
อย่างที่คุณเห็น ดิสก์เสมือนทั้งสามบนระบบจัดเก็บข้อมูลจะมองเห็นได้ในสองเส้นทาง ดังนั้นงานเตรียมการทั้งหมดจึงเสร็จสมบูรณ์ซึ่งหมายความว่าคุณสามารถดำเนินการในส่วนหลักได้ - การตั้งค่าคลัสเตอร์ oVirt ซึ่งจะกล่าวถึงในบทความถัดไป
ที่มา: will.com