การสร้างโครงสร้างพื้นฐานด้านไอทีที่ทนทานต่อข้อผิดพลาด ส่วนที่ 1 - การเตรียมปรับใช้คลัสเตอร์ oVirt 4.3

ขอเชิญชวนผู้อ่านให้ทำความคุ้นเคยกับหลักการของการสร้างโครงสร้างพื้นฐานที่ทนทานต่อข้อผิดพลาดสำหรับองค์กรขนาดเล็กภายในศูนย์ข้อมูลแห่งเดียว ซึ่งจะกล่าวถึงรายละเอียดในบทความชุดสั้นๆ

prodrome

ใต้ ศูนย์ข้อมูล (ศูนย์ประมวลผลข้อมูล) อาจเข้าใจว่าเป็น:

  • ชั้นวางของคุณเองใน "ห้องเซิร์ฟเวอร์" ของคุณเองในสถานที่ขององค์กรซึ่งตรงตามข้อกำหนดขั้นต่ำในการจัดหาแหล่งจ่ายไฟและการระบายความร้อนของอุปกรณ์และยังมีการเข้าถึงอินเทอร์เน็ตผ่านผู้ให้บริการอิสระสองราย
  • ชั้นวางเช่าพร้อมอุปกรณ์ของตัวเองตั้งอยู่ในศูนย์ข้อมูลจริง - ที่เรียกว่า การจัดวางซึ่งเป็นไปตามมาตรฐาน Tier III หรือ IV และรับประกันการจ่ายไฟที่เชื่อถือได้ การทำความเย็น และการเข้าถึงอินเทอร์เน็ตที่ทนทานต่อข้อผิดพลาด
  • อุปกรณ์ให้เช่าเต็มจำนวนในศูนย์ข้อมูลระดับ III หรือ IV

ตัวเลือกที่พักใดให้เลือกเป็นรายบุคคลในแต่ละกรณี และมักจะขึ้นอยู่กับปัจจัยหลักหลายประการ:

  • เหตุใดองค์กรจึงต้องมีโครงสร้างพื้นฐานด้านไอทีเป็นของตัวเอง
  • องค์กรต้องการอะไรจากโครงสร้างพื้นฐานด้านไอที (ความน่าเชื่อถือ ความสามารถในการปรับขนาด ความสามารถในการจัดการ ฯลฯ)
  • ปริมาณการลงทุนเริ่มแรกในโครงสร้างพื้นฐานด้านไอทีรวมถึงต้นทุนประเภทใด - ทุน (ซึ่งหมายความว่าคุณซื้ออุปกรณ์ของคุณเอง) หรือการดำเนินงาน (โดยปกติจะเช่าอุปกรณ์)
  • ขอบเขตการวางแผนขององค์กรเอง

สามารถเขียนได้มากมายเกี่ยวกับปัจจัยที่มีอิทธิพลต่อการตัดสินใจขององค์กรในการสร้างและใช้โครงสร้างพื้นฐานด้านไอที แต่เป้าหมายของเราคือการแสดงให้เห็นในทางปฏิบัติว่าจะสร้างโครงสร้างพื้นฐานนี้อย่างไรเพื่อให้ทนทานต่อข้อผิดพลาดและยังสามารถประหยัดเงินได้อีกด้วย – ลด ค่าใช้จ่ายในการซื้อซอฟต์แวร์เชิงพาณิชย์หรือหลีกเลี่ยงโดยสิ้นเชิง

จากการปฏิบัติในระยะยาวแสดงให้เห็นว่ามันไม่คุ้มค่าที่จะประหยัดฮาร์ดแวร์เนื่องจากคนตระหนี่จ่ายสองเท่าและมากกว่านั้นอีกมาก แต่ขอย้ำอีกครั้งว่าฮาร์ดแวร์ที่ดีเป็นเพียงคำแนะนำและท้ายที่สุดแล้วจะซื้ออะไรกันแน่และจำนวนเท่าใดนั้นขึ้นอยู่กับความสามารถขององค์กรและ "ความโลภ" ของการจัดการ ยิ่งไปกว่านั้น คำว่า "ความโลภ" ควรเข้าใจในความหมายที่ดี เนื่องจากเป็นการดีกว่าที่จะลงทุนในฮาร์ดแวร์ในระยะเริ่มแรก เพื่อไม่ให้เกิดปัญหาร้ายแรงกับการสนับสนุนและการปรับขนาดเพิ่มเติม เนื่องจากการวางแผนที่ไม่ถูกต้องในตอนแรกและ การประหยัดมากเกินไปอาจนำไปสู่ต้นทุนที่สูงกว่าเมื่อเริ่มโครงการ

ดังนั้นข้อมูลเริ่มต้นของโครงการ:

  • มีองค์กรแห่งหนึ่งที่ตัดสินใจสร้างเว็บพอร์ทัลของตนเองและนำกิจกรรมของตนมาสู่อินเทอร์เน็ต
  • บริษัทตัดสินใจเช่าตู้แร็คเพื่อวางอุปกรณ์ในศูนย์ข้อมูลที่ดีที่ได้รับการรับรองตามมาตรฐาน Tier III
  • บริษัทตัดสินใจที่จะไม่ประหยัดฮาร์ดแวร์มากนัก จึงซื้ออุปกรณ์ต่อไปนี้พร้อมการรับประกันและการสนับสนุนเพิ่มเติม:

รายการอุปกรณ์

  • เซิร์ฟเวอร์ Dell PowerEdge R640 จริงสองตัวดังต่อไปนี้:
  • โปรเซสเซอร์ Intel Xeon Gold 5120 สองตัว
  • 512 Gb RAM
  • ดิสก์ SAS สองตัวใน RAID1 สำหรับการติดตั้งระบบปฏิบัติการ
  • การ์ดเครือข่าย 4G 1 พอร์ตในตัว
  • การ์ดเครือข่าย 2G 10 พอร์ต XNUMX ตัว
  • FC HBA 2G 16 พอร์ต XNUMX ตัว
  • ระบบจัดเก็บข้อมูล 2 คอนโทรลเลอร์ Dell MD3820f เชื่อมต่อผ่าน FC 16G โดยตรงกับโฮสต์ของ Dell
  • สวิตช์ระดับที่สองสองตัว - Cisco WS-C2960RX-48FPS-L ซ้อนกัน
  • สวิตช์ระดับที่สามสองตัว - Cisco WS-C3850-24T-E, ซ้อนกัน;
  • ศูนย์ข้อมูลให้บริการแร็ค, UPS, PDU, คอนโซลเซิร์ฟเวอร์

ดังที่เราเห็น อุปกรณ์ที่มีอยู่มีแนวโน้มที่ดีสำหรับการปรับสเกลแนวนอนและแนวตั้ง หากองค์กรสามารถแข่งขันกับบริษัทอื่นที่มีโปรไฟล์คล้ายกันบนอินเทอร์เน็ต และเริ่มได้รับผลกำไร ซึ่งสามารถนำไปลงทุนในการขยายทรัพยากรสำหรับการแข่งขันต่อไป และการเติบโตของผลกำไร

เราสามารถเพิ่มอุปกรณ์ใดได้บ้างหากองค์กรตัดสินใจที่จะเพิ่มประสิทธิภาพของคลัสเตอร์การประมวลผลของเรา:

  • เรามีพอร์ตสำรองจำนวนมากบนสวิตช์ 2960X ซึ่งหมายความว่าเราสามารถเพิ่มเซิร์ฟเวอร์ฮาร์ดแวร์ได้มากขึ้น
  • ซื้อสวิตช์ FC เพิ่มเติมสองตัวเพื่อเชื่อมต่อระบบจัดเก็บข้อมูลและเซิร์ฟเวอร์เพิ่มเติม
  • สามารถอัพเกรดเซิร์ฟเวอร์ที่มีอยู่ได้ - เพิ่มหน่วยความจำ, แทนที่โปรเซสเซอร์ด้วยโปรเซสเซอร์ที่ทรงพลังกว่า, เชื่อมต่อกับเครือข่าย 10G โดยใช้อะแดปเตอร์เครือข่ายที่มีอยู่
  • คุณสามารถเพิ่มชั้นวางดิสก์เพิ่มเติมในระบบจัดเก็บข้อมูลด้วยดิสก์ประเภทที่ต้องการ - SAS, SATA หรือ SSD ขึ้นอยู่กับโหลดที่วางแผนไว้
  • หลังจากเพิ่มสวิตช์ FC แล้ว คุณสามารถซื้อระบบจัดเก็บข้อมูลอื่นเพื่อเพิ่มความจุของดิสก์ได้มากขึ้น และหากคุณซื้อตัวเลือกการจำลองแบบระยะไกลแบบพิเศษ คุณจะสามารถตั้งค่าการจำลองข้อมูลระหว่างระบบจัดเก็บข้อมูลทั้งภายในศูนย์ข้อมูลเดียวกันและระหว่างศูนย์ข้อมูลได้ ( แต่สิ่งนี้อยู่นอกเหนือขอบเขตของบทความอยู่แล้ว)
  • นอกจากนี้ยังมีสวิตช์ระดับที่สาม - Cisco 3850 ซึ่งสามารถใช้เป็นแกนเครือข่ายที่ทนทานต่อข้อผิดพลาดสำหรับการกำหนดเส้นทางความเร็วสูงระหว่างเครือข่ายภายใน สิ่งนี้จะมีประโยชน์มากในอนาคตเมื่อโครงสร้างพื้นฐานภายในเติบโตขึ้น 3850 ยังมีพอร์ต 10G ซึ่งสามารถใช้ได้ในภายหลังเมื่ออัพเกรดอุปกรณ์เครือข่ายของคุณเป็นความเร็ว 10G

เนื่องจากตอนนี้ไม่มีที่ไหนเลยหากไม่มีการจำลองเสมือน แน่นอนว่าเราจะอยู่ในเทรนด์นี้ โดยเฉพาะอย่างยิ่งเนื่องจากนี่เป็นวิธีที่ยอดเยี่ยมในการลดต้นทุนในการซื้อเซิร์ฟเวอร์ราคาแพงสำหรับองค์ประกอบโครงสร้างพื้นฐานแต่ละรายการ (เว็บเซิร์ฟเวอร์ ฐานข้อมูล ฯลฯ) ซึ่งไม่ได้เป็นเช่นนั้นเสมอไป เหมาะสมที่สุดจะใช้ในกรณีที่โหลดต่ำ และนี่คือสิ่งที่จะเกิดขึ้นเมื่อเริ่มต้นการเปิดตัวโครงการ

นอกจากนี้ การจำลองเสมือนมีข้อดีอื่นๆ มากมายที่เป็นประโยชน์กับเรามาก: ความทนทานต่อข้อผิดพลาดของ VM ต่อความล้มเหลวของเซิร์ฟเวอร์ฮาร์ดแวร์ การโยกย้ายแบบสดระหว่างโหนดคลัสเตอร์ฮาร์ดแวร์สำหรับการบำรุงรักษา การกระจายโหลดด้วยตนเองหรืออัตโนมัติระหว่างโหนดคลัสเตอร์ ฯลฯ

สำหรับฮาร์ดแวร์ที่องค์กรซื้อนั้น การปรับใช้คลัสเตอร์ VMware vSphere ที่พร้อมใช้งานสูงนั้นแนะนำตัวเอง แต่เนื่องจากซอฟต์แวร์ใดๆ จาก VMware ขึ้นชื่อเรื่องป้ายราคา "ม้า" เราจะใช้ซอฟต์แวร์ฟรีอย่างแน่นอนสำหรับการจัดการการจำลองเสมือน - oVirtบนพื้นฐานของการสร้างผลิตภัณฑ์ที่รู้จักกันดี แต่เป็นเชิงพาณิชย์แล้ว - ร.ฟ.ท.

ซอฟต์แวร์ oVirt จำเป็นต้องรวมองค์ประกอบโครงสร้างพื้นฐานทั้งหมดเป็นหนึ่งเดียวเพื่อให้สามารถทำงานได้อย่างสะดวกกับเครื่องเสมือนที่มีความพร้อมใช้งานสูง - เหล่านี้คือฐานข้อมูล, เว็บแอปพลิเคชัน, พร็อกซีเซิร์ฟเวอร์, บาลานเซอร์, เซิร์ฟเวอร์สำหรับรวบรวมบันทึกและการวิเคราะห์ ฯลฯ นั่นคือสิ่งที่ เว็บพอร์ทัลขององค์กรของเราประกอบด้วย

เพื่อสรุปการแนะนำนี้ เราอาจตั้งตารอบทความต่อไปนี้ ซึ่งจะแสดงในทางปฏิบัติอย่างชัดเจนถึงวิธีการปรับใช้โครงสร้างพื้นฐานฮาร์ดแวร์และซอฟต์แวร์ทั้งหมดขององค์กร:

รายการบทความ

  • 1 ส่วนหนึ่ง กำลังเตรียมปรับใช้คลัสเตอร์ oVirt 4.3
  • 2 ส่วนหนึ่ง การติดตั้งและกำหนดค่าคลัสเตอร์ oVirt 4.3
  • 3 ส่วนหนึ่ง การตั้งค่าคลัสเตอร์ VyOS จัดระเบียบเส้นทางภายนอกที่ทนทานต่อข้อผิดพลาด
  • 4 ส่วนหนึ่ง การตั้งค่า Cisco 3850 stack เพื่อจัดระเบียบเส้นทางอินทราเน็ต

ส่วนที่ 1 การเตรียมปรับใช้คลัสเตอร์ oVirt 4.3

การตั้งค่าโฮสต์ขั้นพื้นฐาน

การติดตั้งและกำหนดค่าระบบปฏิบัติการเป็นขั้นตอนที่ง่ายที่สุด มีบทความมากมายเกี่ยวกับวิธีการติดตั้งและกำหนดค่าระบบปฏิบัติการอย่างเหมาะสม ดังนั้นจึงไม่มีประโยชน์ที่จะพยายามเผยแพร่บางสิ่งที่เป็นเอกสิทธิ์เกี่ยวกับเรื่องนี้

ดังนั้นเราจึงมีโฮสต์ Dell PowerEdge R640 สองตัวที่เราจำเป็นต้องติดตั้งระบบปฏิบัติการและดำเนินการการตั้งค่าเบื้องต้นเพื่อใช้เป็นไฮเปอร์ไวเซอร์สำหรับการรันเครื่องเสมือนในคลัสเตอร์ oVirt 4.3

เนื่องจากเราวางแผนที่จะใช้ซอฟต์แวร์ oVirt ฟรีที่ไม่ใช่เชิงพาณิชย์ ระบบปฏิบัติการจึงถูกเลือกสำหรับการปรับใช้โฮสต์ 7.7 CentOSแม้ว่าระบบปฏิบัติการอื่นๆ จะสามารถติดตั้งบนโฮสต์สำหรับ oVirt ได้:

  • โครงสร้างพิเศษที่มีพื้นฐานมาจาก RHEL หรือที่เรียกว่า oVirt โหนด;
  • ระบบปฏิบัติการ Oracle Linux ฤดูร้อนปี 2019 มีการประกาศ เกี่ยวกับการสนับสนุนการทำงานของ oVirt

ก่อนติดตั้งระบบปฏิบัติการ ขอแนะนำ:

  • กำหนดค่าอินเทอร์เฟซเครือข่าย iDRAC บนโฮสต์ทั้งสอง
  • อัปเดตเฟิร์มแวร์ BIOS และ iDRAC เป็นเวอร์ชันล่าสุด
  • กำหนดค่าโปรไฟล์ระบบของเซิร์ฟเวอร์ โดยเฉพาะอย่างยิ่งในโหมดประสิทธิภาพ
  • กำหนดค่า RAID จากดิสก์ภายในเครื่อง (แนะนำให้ใช้ RAID1) เพื่อติดตั้งระบบปฏิบัติการบนเซิร์ฟเวอร์

จากนั้นเราจะติดตั้งระบบปฏิบัติการบนดิสก์ที่สร้างไว้ก่อนหน้านี้ผ่าน iDRAC - กระบวนการติดตั้งเป็นเรื่องปกติไม่มีช่วงเวลาพิเศษในนั้น สามารถรับสิทธิ์เข้าถึงคอนโซลเซิร์ฟเวอร์เพื่อเริ่มการติดตั้งระบบปฏิบัติการผ่าน iDRAC แม้ว่าจะไม่มีอะไรขัดขวางคุณจากการเชื่อมต่อจอภาพ คีย์บอร์ด และเมาส์เข้ากับเซิร์ฟเวอร์โดยตรง และติดตั้งระบบปฏิบัติการจากแฟลชไดรฟ์ก็ตาม

หลังจากติดตั้งระบบปฏิบัติการแล้ว เราจะทำการตั้งค่าเริ่มต้น:

systemctl enable network.service
systemctl start network.service
systemctl status network.service

systemctl stop NetworkManager
systemctl disable NetworkManager
systemctl status NetworkManager

yum install -y ntp
systemctl enable ntpd.service
systemctl start ntpd.service

cat /etc/sysconfig/selinux
SELINUX=disabled
SELINUXTYPE=targeted

cat /etc/security/limits.conf
 *               soft    nofile         65536
 *               hard   nofile         65536

cat /etc/sysctl.conf
vm.max_map_count = 262144
vm.swappiness = 1

การติดตั้งชุดซอฟต์แวร์พื้นฐาน

ในการกำหนดค่าระบบปฏิบัติการในขั้นต้น คุณต้องกำหนดค่าอินเทอร์เฟซเครือข่ายบนเซิร์ฟเวอร์เพื่อให้คุณสามารถเข้าถึงอินเทอร์เน็ตเพื่ออัปเดตระบบปฏิบัติการและติดตั้งแพ็คเกจซอฟต์แวร์ที่จำเป็น ซึ่งสามารถทำได้ทั้งในระหว่างกระบวนการติดตั้งระบบปฏิบัติการและหลังจากนั้น

yum -y install epel-release
yum update
yum -y install bind-utils yum-utils net-tools git htop iotop nmon pciutils sysfsutils sysstat mc nc rsync wget traceroute gzip unzip telnet 

การตั้งค่าและชุดซอฟต์แวร์ข้างต้นทั้งหมดเป็นเรื่องของความชอบส่วนตัว และชุดนี้เป็นเพียงคำแนะนำเท่านั้น

เนื่องจากโฮสต์ของเราจะมีบทบาทเป็นไฮเปอร์ไวเซอร์ เราจะเปิดใช้งานโปรไฟล์ประสิทธิภาพที่จำเป็น:

systemctl enable tuned 
systemctl start tuned 
systemctl status tuned 

tuned-adm profile 
tuned-adm profile virtual-host 

คุณสามารถอ่านเพิ่มเติมเกี่ยวกับโปรไฟล์ประสิทธิภาพได้ที่นี่: “บทที่ 4 ปรับแต่งและปรับแต่ง-adm"

หลังจากติดตั้งระบบปฏิบัติการแล้ว เราจะไปยังส่วนถัดไป - การตั้งค่าอินเทอร์เฟซเครือข่ายบนโฮสต์และสแต็กสวิตช์ Cisco 2960X

การกำหนดค่า Cisco 2960X Switch Stack

โครงการของเราจะใช้จำนวน VLAN หรือโดเมนการออกอากาศต่อไปนี้ ซึ่งแยกออกจากกัน เพื่อแยกการรับส่งข้อมูลประเภทต่างๆ:

VLAN10 - อินเทอร์เน็ต
VLAN17 – การจัดการ (iDRAC, ระบบจัดเก็บข้อมูล, การจัดการสวิตช์)
VLAN32 – เครือข่ายการผลิต VM
VLAN33 – โครงข่ายเชื่อมโยงโครงข่าย (ไปยังผู้รับเหมาภายนอก)
VLAN34 – เครือข่ายทดสอบ VM
VLAN35 – เครือข่ายนักพัฒนา VM
VLAN40 – เครือข่ายการตรวจสอบ

ก่อนเริ่มงาน นี่คือไดอะแกรมที่ระดับ L2 ที่เราควรไปถึงในที่สุด:

การสร้างโครงสร้างพื้นฐานด้านไอทีที่ทนทานต่อข้อผิดพลาด ส่วนที่ 1 - การเตรียมปรับใช้คลัสเตอร์ oVirt 4.3

สำหรับการโต้ตอบบนเครือข่ายของโฮสต์ oVirt และเครื่องเสมือนระหว่างกัน เช่นเดียวกับการจัดการระบบจัดเก็บข้อมูลของเรา จำเป็นต้องกำหนดค่าสวิตช์ Cisco 2960X แบบสแต็ก

โฮสต์ของ Dell มีการ์ดเครือข่าย 4 พอร์ตในตัว ดังนั้นจึงแนะนำให้จัดระเบียบการเชื่อมต่อกับ Cisco 2960X โดยใช้การเชื่อมต่อเครือข่ายที่ทนทานต่อข้อผิดพลาด โดยใช้การจัดกลุ่มพอร์ตเครือข่ายกายภาพเป็นอินเทอร์เฟซแบบลอจิคัล และโปรโตคอล LACP ( 802.3ad):

  • พอร์ตสองพอร์ตแรกบนโฮสต์ได้รับการกำหนดค่าในโหมดการเชื่อมและเชื่อมต่อกับสวิตช์ 2960X - อินเทอร์เฟซแบบลอจิคัลนี้จะได้รับการกำหนดค่า สะพาน ด้วยที่อยู่สำหรับการจัดการโฮสต์ การตรวจสอบ การสื่อสารกับโฮสต์อื่น ๆ ในคลัสเตอร์ oVirt มันจะใช้สำหรับการย้ายเครื่องเสมือนแบบสดด้วย
  • สองพอร์ตที่สองบนโฮสต์ได้รับการกำหนดค่าในโหมดการเชื่อมและเชื่อมต่อกับ 2960X - บนอินเทอร์เฟซแบบลอจิคัลนี้โดยใช้ oVirt บริดจ์จะถูกสร้างขึ้นในอนาคต (ใน VLAN ที่เกี่ยวข้อง) ซึ่งจะเชื่อมต่อเครื่องเสมือน
  • พอร์ตเครือข่ายทั้งสองพอร์ตภายในอินเทอร์เฟซแบบลอจิคัลเดียวกันจะเปิดใช้งานอยู่ เช่น การรับส่งข้อมูลสามารถส่งพร้อมกันได้ในโหมดสมดุล
  • การตั้งค่าเครือข่ายบนโหนดคลัสเตอร์จะต้องเหมือนกันทุกประการ ยกเว้นที่อยู่ IP

การตั้งค่าสแตกสวิตช์พื้นฐาน 2960X และพอร์ตของมัน

สวิตช์ของเราจะต้องเป็น:

  • ติดตั้งชั้นวาง;
  • เชื่อมต่อผ่านสายเคเบิลพิเศษสองเส้นที่มีความยาวตามต้องการเช่น CAB-STK-E-1M
  • เชื่อมต่อกับแหล่งจ่ายไฟ
  • เชื่อมต่อกับเวิร์กสเตชันของผู้ดูแลระบบผ่านพอร์ตคอนโซลสำหรับการกำหนดค่าเริ่มต้น

คำแนะนำที่จำเป็นสำหรับเรื่องนี้มีอยู่ที่ หน้าอย่างเป็นทางการ ผู้ผลิต

หลังจากทำตามขั้นตอนข้างต้นเสร็จแล้ว เราก็กำหนดค่าสวิตช์
ความหมายของแต่ละคำสั่งไม่ได้มีวัตถุประสงค์เพื่อถอดรหัสภายในกรอบของบทความนี้ หากจำเป็น คุณสามารถค้นหาข้อมูลทั้งหมดได้อย่างอิสระ
เป้าหมายของเราคือการกำหนดค่าสแตกสวิตช์โดยเร็วที่สุดและเชื่อมต่อโฮสต์และอินเทอร์เฟซการจัดการพื้นที่เก็บข้อมูลเข้ากับสวิตช์

1) เชื่อมต่อกับสวิตช์หลัก ไปที่โหมดสิทธิพิเศษ จากนั้นไปที่โหมดการกำหนดค่า และทำการตั้งค่าพื้นฐาน

การกำหนดค่าสวิตช์พื้นฐาน:

 enable
 configure terminal

 hostname 2960X

 no service pad
 service timestamps debug datetime msec
 service timestamps log datetime localtime show-timezone msec
 no service password-encryption
 service sequence-numbers

 switch 1 priority 15
 switch 2 priority 14
 stack-mac persistent timer 0

 clock timezone MSK 3
  vtp mode transparent
  ip subnet-zero

 vlan 17
  name Management

 vlan 32
  name PROD 

 vlan 33
  name Interconnect

 vlan 34
  name Test

 vlan 35
  name Dev

 vlan 40
  name Monitoring

 spanning-tree mode rapid-pvst
 spanning-tree etherchannel guard misconfig
 spanning-tree portfast bpduguard default
 spanning-tree extend system-id
 spanning-tree vlan 1-40 root primary
 spanning-tree loopguard default
 vlan internal allocation policy ascending
 port-channel load-balance src-dst-ip

 errdisable recovery cause loopback
 errdisable recovery cause bpduguard
 errdisable recovery interval 60

line con 0
 session-timeout 60
 exec-timeout 60 0
 logging synchronous
line vty 5 15
 session-timeout 60
 exec-timeout 60 0
 logging synchronous

 ip http server
 ip http secure-server
 no vstack

interface Vlan1
 no ip address
 shutdown

 exit 

เราบันทึกการกำหนดค่าด้วยคำสั่ง “ฉัน" และรีบูตสวิตช์สแต็กด้วยคำสั่ง "โหลด» บนสวิตช์หลัก 1

2) เรากำหนดค่าพอร์ตเครือข่ายของสวิตช์ในโหมดการเข้าถึงใน VLAN 17 เพื่อเชื่อมต่ออินเทอร์เฟซการจัดการของระบบจัดเก็บข้อมูลและเซิร์ฟเวอร์ iDRAC

การตั้งค่าพอร์ตการจัดการ:

interface GigabitEthernet1/0/5
 description iDRAC - host1
 switchport access vlan 17
 switchport mode access
 spanning-tree portfast edge

interface GigabitEthernet1/0/6
 description Storage1 - Cntr0/Eth0
 switchport access vlan 17
 switchport mode access
 spanning-tree portfast edge

interface GigabitEthernet2/0/5
 description iDRAC - host2
 switchport access vlan 17
 switchport mode access
 spanning-tree portfast edge

interface GigabitEthernet2/0/6
 description Storage1 – Cntr1/Eth0
 switchport access vlan 17
 switchport mode access
 spanning-tree portfast edge
 exit

3) หลังจากโหลดสแต็กใหม่แล้ว ให้ตรวจสอบว่าทำงานได้อย่างถูกต้อง:

ตรวจสอบการทำงานของสแต็ก:

2960X#show switch stack-ring speed

Stack Ring Speed        : 20G
Stack Ring Configuration: Full
Stack Ring Protocol     : FlexStack

2960X#show switch stack-ports
  Switch #    Port 1       Port 2
  --------    ------       ------
    1           Ok           Ok
    2           Ok           Ok

2960X#show switch neighbors
  Switch #    Port 1       Port 2
  --------    ------       ------
      1         2             2
      2         1             1

2960X#show switch detail
Switch/Stack Mac Address : 0cd0.f8e4.ХХХХ
Mac persistency wait time: Indefinite
                                           H/W   Current
Switch#  Role   Mac Address     Priority Version  State
----------------------------------------------------------
*1       Master 0cd0.f8e4.ХХХХ    15     4       Ready
 2       Member 0029.c251.ХХХХ     14     4       Ready

         Stack Port Status             Neighbors
Switch#  Port 1     Port 2           Port 1   Port 2
--------------------------------------------------------
  1        Ok         Ok                2        2
  2        Ok         Ok                1        1

4) การตั้งค่าการเข้าถึง SSH ไปยังสแต็ก 2960X

ในการจัดการสแต็กจากระยะไกลผ่าน SSH เราจะใช้ IP 172.20.1.10 ที่กำหนดค่าไว้สำหรับ SVI (สลับอินเทอร์เฟซเสมือน) VLAN17.

แม้ว่าจะแนะนำให้ใช้พอร์ตเฉพาะบนสวิตช์เพื่อการจัดการ แต่นี่ก็เป็นเรื่องของความชอบและความสามารถส่วนบุคคล

การกำหนดค่าการเข้าถึง SSH ไปยังสแต็กสวิตช์:

ip default-gateway 172.20.1.2

interface vlan 17
 ip address 172.20.1.10 255.255.255.0

hostname 2960X
 ip domain-name hw.home-lab.ru
 no ip domain-lookup

clock set 12:47:04 06 Dec 2019

crypto key generate rsa

ip ssh version 2
ip ssh time-out 90

line vty 0 4
 session-timeout 60
 exec-timeout 60 0
 privilege level 15
 logging synchronous
 transport input ssh

line vty 5 15
 session-timeout 60
 exec-timeout 60 0
 privilege level 15
 logging synchronous
 transport input ssh

aaa new-model
aaa authentication login default local 
username cisco privilege 15 secret my_ssh_password

ตั้งรหัสผ่านเพื่อเข้าสู่โหมดสิทธิพิเศษ:

enable secret *myenablepassword*
service password-encryption

การตั้งค่า NTP:

ntp server 85.21.78.8 prefer
ntp server 89.221.207.113
ntp server 185.22.60.71
ntp server 192.36.143.130
ntp server 185.209.85.222

show ntp status
show ntp associations
show clock detail

5) กำหนดค่าอินเทอร์เฟซอีเธอร์แชนเนลแบบลอจิคัลและพอร์ตฟิสิคัลที่เชื่อมต่อกับโฮสต์ เพื่อความสะดวกในการกำหนดค่า VLAN ที่มีอยู่ทั้งหมดจะถูกเปิดใช้งานบนอินเทอร์เฟซแบบลอจิคัลทั้งหมด แต่โดยทั่วไปแนะนำให้กำหนดค่าเฉพาะสิ่งที่จำเป็นเท่านั้น:

การกำหนดค่าอินเทอร์เฟซ Etherchannel:

interface Port-channel1
 description EtherChannel with Host1-management
 switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 spanning-tree portfast edge trunk

interface Port-channel2
 description EtherChannel with Host2-management
 switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 spanning-tree portfast edge trunk

interface Port-channel3
 description EtherChannel with Host1-VM
 switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 spanning-tree portfast edge trunk

interface Port-channel4
 description EtherChannel with Host2-VM
 switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 spanning-tree portfast edge trunk

interface GigabitEthernet1/0/1
 description Host1-management
 switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 channel-protocol lacp
 channel-group 1 mode active

interface GigabitEthernet1/0/2
 description Host2-management
  switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 channel-protocol lacp
 channel-group 2 mode active

interface GigabitEthernet1/0/3
 description Host1-VM
  switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 channel-protocol lacp
 channel-group 3 mode active

interface GigabitEthernet1/0/4
 description Host2-VM
 switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 channel-protocol lacp
 channel-group 4 mode active

interface GigabitEthernet2/0/1
 description Host1-management
 switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 channel-protocol lacp
 channel-group 1 mode active

interface GigabitEthernet2/0/2
 description Host2-management
  switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 channel-protocol lacp
 channel-group 2 mode active

interface GigabitEthernet2/0/3
 description Host1-VM
  switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 channel-protocol lacp
 channel-group 3 mode active

interface GigabitEthernet2/0/4
 description Host2-VM
 switchport trunk allowed vlan 10,17,30-40
 switchport mode trunk
 channel-protocol lacp
 channel-group 4 mode active

การกำหนดค่าเริ่มต้นของอินเทอร์เฟซเครือข่ายสำหรับเครื่องเสมือนบนโฮสต์ โฮสต์1 и โฮสต์2

เราตรวจสอบการมีอยู่ของโมดูลที่จำเป็นสำหรับการยึดเกาะในการทำงานในระบบ ติดตั้งโมดูลสำหรับควบคุมบริดจ์:

modinfo bonding
modinfo 8021q
yum install bridge-utils

การกำหนดค่าอินเตอร์เฟสแบบลอจิคัล BOND1 สำหรับเครื่องเสมือนและอินเตอร์เฟสแบบฟิสิคัลบนโฮสต์:

cat /etc/sysconfig/network-scripts/ifcfg-bond1
#DESCRIPTION - management
DEVICE=bond1
NAME=bond1
TYPE=Bond
IPV6INIT=no
ONBOOT=yes
USERCTL=no
NM_CONTROLLED=no
BOOTPROTO=none
BONDING_OPTS='mode=4 lacp_rate=1 xmit_hash_policy=2'

cat /etc/sysconfig/network-scripts/ifcfg-em2
#DESCRIPTION - management
DEVICE=em2
TYPE=Ethernet
BOOTPROTO=none
ONBOOT=yes
MASTER=bond1
SLAVE=yes
USERCTL=no 
NM_CONTROLLED=no 

cat /etc/sysconfig/network-scripts/ifcfg-em3
#DESCRIPTION - management
DEVICE=em3
TYPE=Ethernet
BOOTPROTO=none
ONBOOT=yes
MASTER=bond1
SLAVE=yes
USERCTL=no 
NM_CONTROLLED=no 

หลังจากตั้งค่าบนสแต็กเสร็จแล้ว 2960H และโฮสต์ เราจะรีสตาร์ทเครือข่ายบนโฮสต์และตรวจสอบการทำงานของอินเทอร์เฟซแบบลอจิคัล

  • บนโฮสต์:

systemctl restart network

cat /proc/net/bonding/bond1
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: IEEE 802.3ad Dynamic link aggregation
Transmit Hash Policy: layer2+3 (2)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0
...
802.3ad info
LACP rate: fast
Min links: 0
Aggregator selection policy (ad_select): stable
System priority: 65535
...
Slave Interface: em2
MII Status: up
Speed: 1000 Mbps
Duplex: full
...
Slave Interface: em3
MII Status: up
Speed: 1000 Mbps
Duplex: full

  • บนสแต็กสวิตช์ 2960H:

2960X#show lacp internal
Flags:  S - Device is requesting Slow LACPDUs
        F - Device is requesting Fast LACPDUs
        A - Device is in Active mode       P - Device is in Passive mode

Channel group 1
                            LACP port     Admin     Oper    Port        Port
Port      Flags   State     Priority      Key       Key     Number      State
Gi1/0/1   SA      bndl      32768         0x1       0x1     0x102       0x3D
Gi2/0/1   SA      bndl      32768         0x1       0x1     0x202       0x3D

2960X#sh etherchannel summary
Flags:  D - down        P - bundled in port-channel
        I - stand-alone s - suspended
        H - Hot-standby (LACP only)
        R - Layer3      S - Layer2
        U - in use      N - not in use, no aggregation
        f - failed to allocate aggregator

        M - not in use, minimum links not met
        m - not in use, port not aggregated due to minimum links not met
        u - unsuitable for bundling
        w - waiting to be aggregated
        d - default port

        A - formed by Auto LAG

Number of channel-groups in use: 11
Number of aggregators:           11

Group  Port-channel  Protocol    Ports
------+-------------+-----------+-----------------------------------------------
1      Po1(SU)         LACP      Gi1/0/1(P)  Gi2/0/1(P)

การกำหนดค่าเริ่มต้นของอินเทอร์เฟซเครือข่ายสำหรับการจัดการทรัพยากรคลัสเตอร์บนโฮสต์ โฮสต์1 и โฮสต์2

การกำหนดค่าอินเทอร์เฟซแบบลอจิคัล BOND1 สำหรับการจัดการและอินเทอร์เฟซแบบฟิสิคัลบนโฮสต์:

cat /etc/sysconfig/network-scripts/ifcfg-bond0
#DESCRIPTION - management
DEVICE=bond0
NAME=bond0
TYPE=Bond
BONDING_MASTER=yes
IPV6INIT=no
ONBOOT=yes
USERCTL=no
NM_CONTROLLED=no
BOOTPROTO=none
BONDING_OPTS='mode=4 lacp_rate=1 xmit_hash_policy=2'

cat /etc/sysconfig/network-scripts/ifcfg-em0
#DESCRIPTION - management
DEVICE=em0
TYPE=Ethernet
BOOTPROTO=none
ONBOOT=yes
MASTER=bond0
SLAVE=yes
USERCTL=no 
NM_CONTROLLED=no 

cat /etc/sysconfig/network-scripts/ifcfg-em1
#DESCRIPTION - management
DEVICE=em1
TYPE=Ethernet
BOOTPROTO=none
ONBOOT=yes
MASTER=bond0
SLAVE=yes
USERCTL=no 
NM_CONTROLLED=no 

หลังจากตั้งค่าบนสแต็กเสร็จแล้ว 2960H และโฮสต์ เราจะรีสตาร์ทเครือข่ายบนโฮสต์และตรวจสอบการทำงานของอินเทอร์เฟซแบบลอจิคัล

systemctl restart network
cat /proc/net/bonding/bond1

2960X#show lacp internal
2960X#sh etherchannel summary

เรากำหนดค่าอินเทอร์เฟซเครือข่ายควบคุมในแต่ละโฮสต์ VLAN17และผูกเข้ากับโลจิคัลอินเตอร์เฟส BOND1:

การกำหนดค่า VLAN17 บนโฮสต์ 1:

cat /etc/sysconfig/network-scripts/ifcfg-bond1.17
DEVICE=bond1.17
NAME=bond1-vlan17
BOOTPROTO=none
ONBOOT=yes 
USERCTL=no 
NM_CONTROLLED=no 
VLAN=yes
MTU=1500  
IPV4_FAILURE_FATAL=yes
IPV6INIT=no
IPADDR=172.20.17.163
NETMASK=255.255.255.0
GATEWAY=172.20.17.2
DEFROUTE=yes
DNS1=172.20.17.8
DNS2=172.20.17.9
ZONE=public

การกำหนดค่า VLAN17 บนโฮสต์ 2:

cat /etc/sysconfig/network-scripts/ifcfg-bond1.17
DEVICE=bond1.17
NAME=bond1-vlan17
BOOTPROTO=none
ONBOOT=yes 
USERCTL=no 
NM_CONTROLLED=no 
VLAN=yes
MTU=1500  
IPV4_FAILURE_FATAL=yes
IPV6INIT=no
IPADDR=172.20.17.164
NETMASK=255.255.255.0
GATEWAY=172.20.17.2
DEFROUTE=yes
DNS1=172.20.17.8
DNS2=172.20.17.9
ZONE=public

เรารีสตาร์ทเครือข่ายบนโฮสต์และตรวจสอบการมองเห็นซึ่งกันและกัน

การดำเนินการนี้จะทำให้การกำหนดค่าสแต็กของสวิตช์ Cisco 2960X เสร็จสมบูรณ์ และหากทุกอย่างถูกต้อง ตอนนี้เรามีการเชื่อมต่อเครือข่ายขององค์ประกอบโครงสร้างพื้นฐานทั้งหมดถึงกันที่ระดับ L2

การตั้งค่าระบบจัดเก็บข้อมูล Dell MD3820f

ก่อนที่จะเริ่มงานในการตั้งค่าระบบจัดเก็บข้อมูล จะต้องเชื่อมต่อกับสวิตช์ Cisco จำนวนมากก่อน 2960H อินเทอร์เฟซการควบคุมตลอดจนโฮสต์ โฮสต์1 и โฮสต์2 ผ่านทางเอฟซี

แผนภาพทั่วไปของวิธีการเชื่อมต่อระบบจัดเก็บข้อมูลกับสแต็กสวิตช์มีให้ไว้ในบทที่แล้ว

แผนภาพสำหรับเชื่อมต่อระบบจัดเก็บข้อมูลผ่าน FC ไปยังโฮสต์ควรมีลักษณะดังนี้:

การสร้างโครงสร้างพื้นฐานด้านไอทีที่ทนทานต่อข้อผิดพลาด ส่วนที่ 1 - การเตรียมปรับใช้คลัสเตอร์ oVirt 4.3

ในระหว่างการเชื่อมต่อ คุณต้องจดที่อยู่ WWPN สำหรับโฮสต์ FC HBA ที่เชื่อมต่อกับพอร์ต FC บนระบบจัดเก็บข้อมูล ซึ่งจำเป็นสำหรับการตั้งค่าการเชื่อมโยงโฮสต์กับ LUN บนระบบจัดเก็บข้อมูลในภายหลัง

บนเวิร์กสเตชันของผู้ดูแลระบบ ให้ดาวน์โหลดและติดตั้งยูทิลิตี้สำหรับจัดการระบบจัดเก็บข้อมูล Dell MD3820f – ตัวจัดการพื้นที่เก็บข้อมูลดิสก์ PowerVault Modular (เอ็มดีเอสเอ็ม).
เราเชื่อมต่อผ่านที่อยู่ IP เริ่มต้น จากนั้นกำหนดค่าที่อยู่ของเรา VLAN17เพื่อจัดการคอนโทรลเลอร์ผ่าน TCP/IP:

ที่เก็บข้อมูล 1:

ControllerA IP - 172.20.1.13, MASK - 255.255.255.0, Gateway - 172.20.1.2
ControllerB IP - 172.20.1.14, MASK - 255.255.255.0, Gateway - 172.20.1.2

หลังจากตั้งค่าที่อยู่แล้ว ให้ไปที่อินเทอร์เฟซการจัดการพื้นที่เก็บข้อมูลและตั้งรหัสผ่าน ตั้งเวลา อัปเดตเฟิร์มแวร์สำหรับคอนโทรลเลอร์และดิสก์ หากจำเป็น เป็นต้น
วิธีการดำเนินการนี้อธิบายไว้ใน คู่มือการบริหาร ระบบจัดเก็บข้อมูล

หลังจากตั้งค่าข้างต้นเสร็จแล้ว เราจะต้องดำเนินการเพียงไม่กี่ขั้นตอน:

  1. กำหนดค่า ID พอร์ตโฮสต์ FC – ตัวระบุพอร์ตโฮสต์.
  2. สร้างกลุ่มโฮสต์ – กลุ่มเจ้าภาพ และเพิ่มโฮสต์ Dell สองเครื่องของเราเข้าไป
  3. สร้างกลุ่มดิสก์และดิสก์เสมือน (หรือ LUN) ในกลุ่มที่จะนำเสนอต่อโฮสต์
  4. กำหนดค่าการนำเสนอดิสก์เสมือน (หรือ LUN) สำหรับโฮสต์

การเพิ่มโฮสต์ใหม่และตัวระบุพอร์ต FC ของโฮสต์ที่มีผลผูกพันนั้นทำได้ผ่านเมนู - การแมปโฮสต์ -> กำหนด -> เจ้าภาพ...
ที่อยู่ WWPN ของโฮสต์ FC HBA สามารถพบได้ในเซิร์ฟเวอร์ iDRAC

เป็นผลให้เราควรได้รับสิ่งนี้:

การสร้างโครงสร้างพื้นฐานด้านไอทีที่ทนทานต่อข้อผิดพลาด ส่วนที่ 1 - การเตรียมปรับใช้คลัสเตอร์ oVirt 4.3

การเพิ่มกลุ่มโฮสต์ใหม่และโฮสต์ที่มีผลผูกพันนั้นทำได้ผ่านเมนู - การแมปโฮสต์ -> กำหนด -> กลุ่มเจ้าภาพ…
สำหรับโฮสต์ ให้เลือกประเภทระบบปฏิบัติการ – ลินุกซ์ (DM-MP).

หลังจากสร้างกลุ่มโฮสต์แล้วให้ผ่านแท็บ บริการจัดเก็บและถ่ายเอกสารสร้างกลุ่มดิสก์ – กลุ่มดิสก์โดยมีประเภทขึ้นอยู่กับข้อกำหนดสำหรับความทนทานต่อข้อผิดพลาด เช่น RAID10 และดิสก์เสมือนในขนาดที่ต้องการ:

การสร้างโครงสร้างพื้นฐานด้านไอทีที่ทนทานต่อข้อผิดพลาด ส่วนที่ 1 - การเตรียมปรับใช้คลัสเตอร์ oVirt 4.3

และสุดท้าย ขั้นตอนสุดท้ายคือการนำเสนอดิสก์เสมือน (หรือ LUN) แก่โฮสต์
หากต้องการทำสิ่งนี้ผ่านเมนู - การแมปโฮสต์ -> การทำแผนที่ดวงจันทร์ -> เพิ่ม ... เราเชื่อมโยงดิสก์เสมือนกับโฮสต์โดยการกำหนดหมายเลขให้กับดิสก์เหล่านั้น

ทุกอย่างควรมีลักษณะเหมือนภาพหน้าจอนี้:

การสร้างโครงสร้างพื้นฐานด้านไอทีที่ทนทานต่อข้อผิดพลาด ส่วนที่ 1 - การเตรียมปรับใช้คลัสเตอร์ oVirt 4.3

นี่คือขั้นตอนที่เราตั้งค่าระบบจัดเก็บข้อมูลให้เสร็จสิ้น และหากทุกอย่างถูกต้อง โฮสต์ควรเห็น LUN ที่แสดงให้พวกเขาผ่าน FC HBA
บังคับให้ระบบอัปเดตข้อมูลเกี่ยวกับดิสก์ที่เชื่อมต่อ:

ls -la /sys/class/scsi_host/
echo "- - -" > /sys/class/scsi_host/host[0-9]/scan

มาดูกันว่าอุปกรณ์ใดบ้างที่มองเห็นได้บนเซิร์ฟเวอร์ของเรา:

cat /proc/scsi/scsi
Attached devices:
Host: scsi0 Channel: 02 Id: 00 Lun: 00
  Vendor: DELL     Model: PERC H330 Mini   Rev: 4.29
  Type:   Direct-Access                    ANSI  SCSI revision: 05
Host: scsi15 Channel: 00 Id: 00 Lun: 00
  Vendor: DELL     Model: MD38xxf          Rev: 0825
  Type:   Direct-Access                    ANSI  SCSI revision: 05
Host: scsi15 Channel: 00 Id: 00 Lun: 01
  Vendor: DELL     Model: MD38xxf          Rev: 0825
  Type:   Direct-Access                    ANSI  SCSI revision: 05
Host: scsi15 Channel: 00 Id: 00 Lun: 04
  Vendor: DELL     Model: MD38xxf          Rev: 0825
  Type:   Direct-Access                    ANSI  SCSI revision: 05
Host: scsi15 Channel: 00 Id: 00 Lun: 11
  Vendor: DELL     Model: MD38xxf          Rev: 0825
  Type:   Direct-Access                    ANSI  SCSI revision: 05
Host: scsi15 Channel: 00 Id: 00 Lun: 31
  Vendor: DELL     Model: Universal Xport  Rev: 0825
  Type:   Direct-Access                    ANSI  SCSI revision: 05
Host: scsi18 Channel: 00 Id: 00 Lun: 00
  Vendor: DELL     Model: MD38xxf          Rev: 0825
  Type:   Direct-Access                    ANSI  SCSI revision: 05
Host: scsi18 Channel: 00 Id: 00 Lun: 01
  Vendor: DELL     Model: MD38xxf          Rev: 0825
  Type:   Direct-Access                    ANSI  SCSI revision: 05
Host: scsi18 Channel: 00 Id: 00 Lun: 04
  Vendor: DELL     Model: MD38xxf          Rev: 0825
  Type:   Direct-Access                    ANSI  SCSI revision: 05
Host: scsi18 Channel: 00 Id: 00 Lun: 11
  Vendor: DELL     Model: MD38xxf          Rev: 0825
  Type:   Direct-Access                    ANSI  SCSI revision: 05
Host: scsi18 Channel: 00 Id: 00 Lun: 31
  Vendor: DELL     Model: Universal Xport  Rev: 0825
  Type:   Direct-Access                    ANSI  SCSI revision: 05

lsscsi
[0:2:0:0]    disk    DELL     PERC H330 Mini   4.29  /dev/sda
[15:0:0:0]   disk    DELL     MD38xxf          0825  -
[15:0:0:1]   disk    DELL     MD38xxf          0825  /dev/sdb
[15:0:0:4]   disk    DELL     MD38xxf          0825  /dev/sdc
[15:0:0:11]  disk    DELL     MD38xxf          0825  /dev/sdd
[15:0:0:31]  disk    DELL     Universal Xport  0825  -
 [18:0:0:0]   disk    DELL     MD38xxf          0825  -
[18:0:0:1]   disk    DELL     MD38xxf          0825  /dev/sdi
[18:0:0:4]   disk    DELL     MD38xxf          0825  /dev/sdj
[18:0:0:11]  disk    DELL     MD38xxf          0825  /dev/sdk
[18:0:0:31]  disk    DELL     Universal Xport  0825  -

บนโฮสต์ คุณสามารถกำหนดค่าเพิ่มเติมได้ หลายเส้นทางและแม้ว่าเมื่อติดตั้ง oVirt ก็สามารถทำเองได้ แต่ก็ควรตรวจสอบการทำงานที่ถูกต้องของ MP ล่วงหน้าด้วยตัวเองจะดีกว่า

การติดตั้งและการกำหนดค่า DM Multipath

yum install device-mapper-multipath
mpathconf --enable --user_friendly_names y

cat /etc/multipath.conf | egrep -v "^s*(#|$)"
defaults {
    user_friendly_names yes
            find_multipaths yes
}

blacklist {
  wwid 26353900f02796769
  devnode "^(ram|raw|loop|fd|md|dm-|sr|scd|st)[0-9]*"     
  devnode "^hd[a-z]"
 }

ตั้งค่าบริการ MP ให้เริ่มอัตโนมัติและเปิดใช้งาน:

systemctl enable multipathd && systemctl restart multipathd

การตรวจสอบข้อมูลเกี่ยวกับโมดูลที่โหลดสำหรับการทำงานของ MP:

lsmod | grep dm_multipath
dm_multipath           27792  6 dm_service_time
dm_mod                124407  139 dm_multipath,dm_log,dm_mirror

modinfo dm_multipath
filename:       /lib/modules/3.10.0-957.12.2.el7.x86_64/kernel/drivers/md/dm-multipath.ko.xz
license:        GPL
author:         Sistina Software <[email protected]>
description:    device-mapper multipath target
retpoline:      Y
rhelversion:    7.6
srcversion:     985A03DCAF053D4910E53EE
depends:        dm-mod
intree:         Y
vermagic:       3.10.0-957.12.2.el7.x86_64 SMP mod_unload modversions
signer:         CentOS Linux kernel signing key
sig_key:        A3:2D:39:46:F2:D3:58:EA:52:30:1F:63:37:8A:37:A5:54:03:00:45
sig_hashalgo:   sha256

มาดูข้อมูลสรุปเกี่ยวกับการกำหนดค่าหลายเส้นทางที่มีอยู่:

mpathconf
multipath is enabled
find_multipaths is disabled
user_friendly_names is disabled
dm_multipath module is loaded
multipathd is running

หลังจากเพิ่ม LUN ใหม่ให้กับระบบจัดเก็บข้อมูลและนำเสนอต่อโฮสต์แล้ว คุณจะต้องสแกน HBA ที่เชื่อมต่อกับโฮสต์บนนั้น

systemctl reload multipathd
multipath -v2

และสุดท้าย เราจะตรวจสอบว่ามีการแสดง LUN ทั้งหมดบนระบบจัดเก็บข้อมูลสำหรับโฮสต์หรือไม่ และมีสองเส้นทางสำหรับทั้งหมดหรือไม่

การตรวจสอบการทำงานของ MP:

multipath -ll
3600a098000e4b4b3000003175cec1840 dm-2 DELL    ,MD38xxf
size=2.0T features='3 queue_if_no_path pg_init_retries 50' hwhandler='1 rdac' wp=rw
|-+- policy='service-time 0' prio=14 status=active
| `- 15:0:0:1  sdb 8:16  active ready running
`-+- policy='service-time 0' prio=9 status=enabled
  `- 18:0:0:1  sdi 8:128 active ready running
3600a098000e4b48f000002ab5cec1921 dm-6 DELL    ,MD38xxf
size=10T features='3 queue_if_no_path pg_init_retries 50' hwhandler='1 rdac' wp=rw
|-+- policy='service-time 0' prio=14 status=active
| `- 18:0:0:11 sdk 8:160 active ready running
`-+- policy='service-time 0' prio=9 status=enabled
  `- 15:0:0:11 sdd 8:48  active ready running
3600a098000e4b4b3000003c95d171065 dm-3 DELL    ,MD38xxf
size=150G features='3 queue_if_no_path pg_init_retries 50' hwhandler='1 rdac' wp=rw
|-+- policy='service-time 0' prio=14 status=active
| `- 15:0:0:4  sdc 8:32  active ready running
`-+- policy='service-time 0' prio=9 status=enabled
  `- 18:0:0:4  sdj 8:144 active ready running

อย่างที่คุณเห็น ดิสก์เสมือนทั้งสามบนระบบจัดเก็บข้อมูลจะมองเห็นได้ในสองเส้นทาง ดังนั้นงานเตรียมการทั้งหมดจึงเสร็จสมบูรณ์ซึ่งหมายความว่าคุณสามารถดำเนินการในส่วนหลักได้ - การตั้งค่าคลัสเตอร์ oVirt ซึ่งจะกล่าวถึงในบทความถัดไป

ที่มา: will.com

เพิ่มความคิดเห็น