บทความนี้เป็นบทความถัดไปในซีรีส์ oVirt ซึ่งเป็นจุดเริ่มต้น
บทความ
การแนะนำ - การติดตั้งตัวจัดการ (ovirt-engine) และไฮเปอร์ไวเซอร์ (โฮสต์) - เราอยู่ที่นี่
การตั้งค่าเพิ่มเติม
ดังนั้น ลองพิจารณาปัญหาของการติดตั้งครั้งแรกของส่วนประกอบ ovirt-engine และ ovirt-host
สามารถดูกระบวนการติดตั้งโดยละเอียดเพิ่มเติมได้เสมอ
Содержание
การติดตั้ง ovirt-engine การติดตั้ง ovirt-host การเพิ่มโหนดให้กับ oVirtN การตั้งค่าอินเทอร์เฟซเครือข่าย การตั้งค่าเอฟซี การตั้งค่า FCoE การจัดเก็บอิมเมจ ISO วีเอ็มแรก
การติดตั้ง ovirt-engine
สำหรับเครื่องยนต์ ข้อกำหนดขั้นต่ำคือ 2 คอร์/4 GiB RAM/ที่เก็บข้อมูล 25 GiB แนะนำ - จาก 4 คอร์/RAM 16 GiB/พื้นที่เก็บข้อมูล 50 GiB เราใช้ตัวเลือก Standalone Manager เมื่อกลไกทำงานบนเครื่องจริงหรือเครื่องเสมือนเฉพาะภายนอกคลัสเตอร์ที่ได้รับการจัดการ สำหรับการติดตั้ง เราจะนำเครื่องเสมือนมาใช้กับ ESXi* แบบสแตนด์อโลน สะดวกในการใช้เครื่องมือปรับใช้อัตโนมัติหรือการโคลนจากเทมเพลตที่เตรียมไว้ก่อนหน้านี้หรือการติดตั้งแบบคิกสตาร์ท
*หมายเหตุ: สำหรับระบบการผลิตนี่เป็นความคิดที่ไม่ดีเพราะ... ผู้จัดการทำงานโดยไม่มีการสำรองและกลายเป็นคอขวด ในกรณีนี้ ควรพิจารณาตัวเลือก Self-hosted Engine จะดีกว่า
หากจำเป็น ขั้นตอนการแปลงแบบสแตนด์อโลนเป็นการโฮสต์ด้วยตนเองมีรายละเอียดอธิบายไว้ใน
เราติดตั้ง CentOS 7 บน VM ในการกำหนดค่าขั้นต่ำ จากนั้นอัปเดตและรีบูตระบบ:
$ sudo yum update -y && sudo reboot
การติดตั้ง Guest Agent สำหรับเครื่องเสมือนมีประโยชน์:
$ sudo yum install open-vm-tools
สำหรับโฮสต์ VMware ESXi หรือสำหรับ oVirt:
$ sudo yum install ovirt-guest-agent
เชื่อมต่อที่เก็บและติดตั้งตัวจัดการ:
$ sudo yum install https://resources.ovirt.org/pub/yum-repo/ovirt-release43.rpm
$ sudo yum install ovirt-engine
การตั้งค่าพื้นฐาน:
$ sudo engine-setup
ในกรณีส่วนใหญ่ การตั้งค่าเริ่มต้นก็เพียงพอแล้ว หากต้องการใช้โดยอัตโนมัติ คุณสามารถเรียกใช้การกำหนดค่าด้วยคีย์:
$ sudo engine-setup --accept-defaults
ตอนนี้เราสามารถเชื่อมต่อกับเครื่องยนต์ใหม่ของเราได้ที่
การติดตั้ง ovirt-host
เราติดตั้ง CentOS 7 ในการกำหนดค่าขั้นต่ำบนโฮสต์จริง จากนั้นเชื่อมต่อพื้นที่เก็บข้อมูล อัปเดต และรีบูตระบบ:
$ sudo yum install https://resources.ovirt.org/pub/yum-repo/ovirt-release43.rpm
$ sudo yum update -y && sudo reboot
หมายเหตุ: สะดวกในการใช้เครื่องมือปรับใช้อัตโนมัติหรือการติดตั้งคิกสตาร์ทสำหรับการติดตั้ง
ตัวอย่างไฟล์คิกสตาร์ท
คำเตือน! พาร์ติชั่นที่มีอยู่จะถูกลบโดยอัตโนมัติ! ระวัง!
# System authorization information
auth --enableshadow --passalgo=sha512
# Use CDROM installation media
cdrom
# Use graphical install
graphical
# Run the Setup Agent on first boot
firstboot --enable
ignoredisk --only-use=sda
# Keyboard layouts
keyboard --vckeymap=us --xlayouts='us','ru' --switch='grp:alt_shift_toggle'
# System language
lang ru_RU.UTF-8
# Network information
network --bootproto=dhcp --device=ens192 --ipv6=auto --activate
network --hostname=kvm01.lab.example.com
# Root password 'monteV1DE0'
rootpw --iscrypted $6$6oPcf0GW9VdmJe5w$6WBucrUPRdCAP.aBVnUfvaEu9ozkXq9M1TXiwOm41Y58DEerG8b3Ulme2YtxAgNHr6DGIJ02eFgVuEmYsOo7./
# User password 'metroP0!is'
user --name=mgmt --groups=wheel --iscrypted --password=$6$883g2lyXdkDLbKYR$B3yWx1aQZmYYi.aO10W2Bvw0Jpkl1upzgjhZr6lmITTrGaPupa5iC3kZAOvwDonZ/6ogNJe/59GN5U8Okp.qx.
# System services
services --enabled="chronyd"
# System timezone
timezone Europe/Moscow --isUtc
# System bootloader configuration
bootloader --append=" crashkernel=auto" --location=mbr --boot-drive=sda
# Partition clearing information
clearpart --all
# Disk partitioning information
part /boot --fstype xfs --size=1024 --ondisk=sda --label=boot
part pv.01 --size=45056 --grow
volgroup HostVG pv.01 --reserved-percent=20
logvol swap --vgname=HostVG --name=lv_swap --fstype=swap --recommended
logvol none --vgname=HostVG --name=HostPool --thinpool --size=40960 --grow
logvol / --vgname=HostVG --name=lv_root --thin --fstype=ext4 --label="root" --poolname=HostPool --fsoptions="defaults,discard" --size=6144 --grow
logvol /var --vgname=HostVG --name=lv_var --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=16536
logvol /var/crash --vgname=HostVG --name=lv_var_crash --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=10240
logvol /var/log --vgname=HostVG --name=lv_var_log --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=8192
logvol /var/log/audit --vgname=HostVG --name=lv_var_audit --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=2048
logvol /home --vgname=HostVG --name=lv_home --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1024
logvol /tmp --vgname=HostVG --name=lv_tmp --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1024
%packages
@^minimal
@core
chrony
kexec-tools
%end
%addon com_redhat_kdump --enable --reserve-mb='auto'
%end
%anaconda
pwpolicy root --minlen=6 --minquality=1 --notstrict --nochanges --notempty
pwpolicy user --minlen=6 --minquality=1 --notstrict --nochanges --emptyok
pwpolicy luks --minlen=6 --minquality=1 --notstrict --nochanges --notempty
%end
# Reboot when the install is finished.
reboot --eject
บันทึกไฟล์นี้ เช่น
' inst.ks=ftp://ftp.example.com/pub/labkvm.cfg'
.
สคริปต์การติดตั้งจะลบพาร์ติชันที่มีอยู่ใน /dev/sda และสร้างขึ้นใหม่
รหัสผ่านผู้ใช้ root: monteV1DE0, รหัสผ่านผู้ใช้ mgmt: metroP0!is
ความสนใจ! พาร์ติชั่นที่มีอยู่จะถูกลบโดยอัตโนมัติ! ระวัง!
เราทำซ้ำ (หรือดำเนินการแบบขนาน) บนโฮสต์ทั้งหมด จากการเปิดเซิร์ฟเวอร์ "ว่าง" ให้เป็นสถานะพร้อม โดยคำนึงถึงการดาวน์โหลดที่ยาวนาน 2 ครั้ง จะใช้เวลาประมาณ 20 นาที
การเพิ่มโหนดให้กับ oVirt
มันง่ายมาก:
คำนวณ → โฮสต์ → ใหม่ →...
ฟิลด์ที่จำเป็นในตัวช่วยสร้างคือ ชื่อ (ชื่อที่แสดง เช่น kvm03), ชื่อโฮสต์ (FQDN เช่น kvm03.lab.example.com) และส่วนการตรวจสอบสิทธิ์ - ผู้ใช้รูท (ไม่เปลี่ยนรูป) — รหัสผ่านหรือรหัสสาธารณะ SSH
หลังจากกดปุ่ม Ok คุณจะได้รับข้อความ "คุณยังไม่ได้กำหนดค่าการจัดการพลังงานสำหรับโฮสต์นี้ คุณแน่ใจหรือว่าต้องการดำเนินการต่อ?”. นี่เป็นเรื่องปกติ - เราจะดูการจัดการพลังงานในภายหลัง หลังจากที่โฮสต์เชื่อมต่อสำเร็จแล้ว อย่างไรก็ตาม หากเครื่องที่ติดตั้งโฮสต์ไม่รองรับการจัดการ (IPMI, iLO, DRAC ฯลฯ) ฉันแนะนำให้ปิดการใช้งาน: คำนวณ → คลัสเตอร์ → ค่าเริ่มต้น → แก้ไข → Fencing Ploicy → เปิดใช้งานการฟันดาบ ให้ยกเลิกการทำเครื่องหมายที่ช่อง
หากพื้นที่เก็บข้อมูล oVirt ไม่ได้เชื่อมต่อกับโฮสต์ การติดตั้งจะล้มเหลว แต่ไม่เป็นไร คุณต้องเพิ่มมัน จากนั้นคลิกติดตั้ง -> ติดตั้งใหม่
การเชื่อมต่อโฮสต์ใช้เวลาไม่เกิน 5-10 นาที
การตั้งค่าอินเทอร์เฟซเครือข่าย
เนื่องจากเรากำลังสร้างระบบที่ทนทานต่อข้อผิดพลาด การเชื่อมต่อเครือข่ายจึงต้องมีการเชื่อมต่อสำรอง ซึ่งดำเนินการในแท็บ Compute → Hosts → HOST → อินเทอร์เฟซเครือข่าย - ตั้งค่าเครือข่ายโฮสต์
ขึ้นอยู่กับความสามารถของอุปกรณ์เครือข่ายและวิธีการทางสถาปัตยกรรมของคุณ ตัวเลือกที่เป็นไปได้ วิธีที่ดีที่สุดคือเชื่อมต่อกับสแต็กสวิตช์ระดับบนสุด เพื่อที่ว่าหากสวิตช์ตัวใดตัวหนึ่งล้มเหลว ความพร้อมใช้งานของเครือข่ายจะไม่ถูกรบกวน ลองดูตัวอย่างช่อง LACP แบบรวม ในการกำหนดค่าช่องสัญญาณรวมให้ "นำ" อะแดปเตอร์ตัวที่ 2 ที่ไม่ได้ใช้ด้วยเมาส์แล้ว "นำ" ไปที่ตัวที่ 1 หน้าต่างจะเปิดขึ้น สร้างพันธบัตรใหม่โดยที่ LACP (โหมด 4, การรวมลิงก์แบบไดนามิก, 802.3ad) ถูกเลือกไว้ตามค่าเริ่มต้น ที่ด้านสวิตช์ จะมีการดำเนินการกำหนดค่ากลุ่ม LACP ตามปกติ หากไม่สามารถสร้างสแต็กสวิตช์ได้ คุณสามารถใช้โหมด Active-Backup (โหมด 1) เราจะดูการตั้งค่า VLAN ในบทความถัดไป และเราจะลงรายละเอียดเพิ่มเติมพร้อมคำแนะนำในการตั้งค่าเครือข่ายในเอกสาร
การตั้งค่าเอฟซี
รองรับ Fibre Channel (FC) ตั้งแต่แกะกล่องและใช้งานง่าย เราจะไม่ตั้งค่าเครือข่ายการจัดเก็บข้อมูล รวมถึงการตั้งค่าระบบจัดเก็บข้อมูลและสวิตช์แบ่งเขตซึ่งเป็นส่วนหนึ่งของการตั้งค่า oVirt
การตั้งค่า FCoE
ในความคิดของฉัน FCoE ยังไม่แพร่หลายในเครือข่ายการจัดเก็บข้อมูล แต่มักใช้บนเซิร์ฟเวอร์ในฐานะ "ไมล์สุดท้าย" เช่น ใน HPE Virtual Connect
การตั้งค่า FCoE ต้องมีขั้นตอนง่ายๆ เพิ่มเติม
ตั้งค่าเครื่องยนต์ FCoE
บทความบนเว็บไซต์ Red Hat
บนผู้จัดการ
$ sudo engine-config -s UserDefinedNetworkCustomProperties='fcoe=^((enable|dcb|auto_vlan)=(yes|no),?)*$'
$ sudo systemctl restart ovirt-engine.service
ตั้งค่าโหนด FCoE
บน oVirt-Hosts คุณต้องติดตั้ง
$ sudo yum install vdsm-hook-fcoe
ถัดไปคือการตั้งค่า FCoE ตามปกติ บทความเกี่ยวกับ Red Hat:
สำหรับ Broadcom CNA โปรดดูเพิ่มเติม
ตรวจสอบให้แน่ใจว่าได้ติดตั้งแพ็คเกจแล้ว (น้อยที่สุดแล้ว):
$ sudo yum install fcoe-utils lldpad
ถัดไปคือการตั้งค่า (แทนที่จะเป็น ens3f2 และ ens3f3 เราจะเปลี่ยนชื่อของ CNA ที่รวมอยู่ในเครือข่ายการจัดเก็บข้อมูล):
$ sudo cp /etc/fcoe/cfg-ethx /etc/fcoe/cfg-ens3f2
$ sudo cp /etc/fcoe/cfg-ethx /etc/fcoe/cfg-ens3f3
$ sudo vim /etc/fcoe/cfg-ens3f2
$ sudo vim /etc/fcoe/cfg-ens3f3
มันเป็นสิ่งสำคัญ: หากอินเทอร์เฟซเครือข่ายรองรับ DCB/DCBX ในฮาร์ดแวร์ จะต้องตั้งค่าพารามิเตอร์ DCB_REQUIRED เป็น no
DCB_REQUIRED=“ใช่” → #DCB_REQUIRED=“ใช่”
ถัดไป คุณควรตรวจสอบให้แน่ใจว่า adminStatus ถูกปิดใช้งานบนอินเทอร์เฟซทั้งหมด รวมถึง โดยไม่ต้องเปิดใช้งาน FCoE:
$ sudo lldptool set-lldp -i ens3f0 adminStatus=disabled
...
$ sudo lldptool set-lldp -i ens3f3 adminStatus=disabled
หากมีอินเทอร์เฟซเครือข่ายอื่น คุณสามารถเปิดใช้งาน LLDP ได้:
$ sudo systemctl start lldpad
$ sudo systemctl enable lldpad
ตามที่ระบุไว้ก่อนหน้านี้ หากใช้ฮาร์ดแวร์ DCB/DCBX จะต้องเปิดใช้งานการตั้งค่า DCB_REQUIRED ไม่ และสามารถข้ามขั้นตอนนี้ได้
$ sudo dcbtool sc ens3f2 dcb on
$ sudo dcbtool sc ens3f3 dcb on
$ sudo dcbtool sc ens3f2 app:fcoe e:1
$ sudo dcbtool sc ens3f3 app:fcoe e:1
$ sudo ip link set dev ens3f2 up
$ sudo ip link set dev ens3f3 up
$ sudo systemctl start fcoe
$ sudo systemctl enable fcoe
สำหรับอินเทอร์เฟซเครือข่าย ให้ตรวจสอบว่าเปิดใช้งานการเริ่มอัตโนมัติหรือไม่:
$ sudo vim /etc/sysconfig/network-scripts/ifcfg-ens3f2
$ sudo vim /etc/sysconfig/network-scripts/ifcfg-ens3f3
ONBOOT=yes
ดูอินเทอร์เฟซ FCoE ที่กำหนดค่าไว้ เอาต์พุตคำสั่งไม่ควรว่างเปล่า
$ sudo fcoeadm -i
การกำหนดค่า FCoE ในภายหลังจะดำเนินการเช่นเดียวกับ FC ทั่วไป
ถัดมาคือการกำหนดค่าระบบจัดเก็บข้อมูลและเครือข่าย - การแบ่งเขต โฮสต์ SAN การสร้างและการนำเสนอวอลุ่ม/LUN หลังจากนั้นพื้นที่เก็บข้อมูลสามารถเชื่อมต่อกับโฮสต์ ovirt ได้: พื้นที่เก็บข้อมูล → โดเมน → โดเมนใหม่
ปล่อยให้ฟังก์ชันโดเมนเป็นข้อมูล ประเภทการจัดเก็บข้อมูลเป็น Fibre Channel โฮสต์เป็นอะไรก็ได้ ชื่อเช่น storNN-volMM
แน่นอนว่าระบบจัดเก็บข้อมูลของคุณช่วยให้สามารถเชื่อมต่อได้ไม่เพียงแต่สำหรับการสำรองเส้นทางเท่านั้น แต่ยังเพื่อความสมดุลอีกด้วย ระบบสมัยใหม่จำนวนมากสามารถส่งข้อมูลไปตามเส้นทางทั้งหมดได้อย่างมีประสิทธิภาพเท่าเทียมกัน (ALUA ใช้งาน/ใช้งานอยู่)
หากต้องการเปิดใช้งานเส้นทางทั้งหมดในสถานะใช้งานอยู่ คุณต้องกำหนดค่า Multipasing โดยมีรายละเอียดเพิ่มเติมในบทความต่อไปนี้
การตั้งค่า NFS และ iSCSI ทำได้ในลักษณะเดียวกัน
การจัดเก็บอิมเมจ ISO
ในการติดตั้งระบบปฏิบัติการ คุณจะต้องมีไฟล์การติดตั้ง ซึ่งส่วนใหญ่จะมีให้ในรูปแบบอิมเมจ ISO คุณสามารถใช้เส้นทางในตัวได้ แต่ในการทำงานกับรูปภาพใน oVirt ได้มีการพัฒนาพื้นที่เก็บข้อมูลชนิดพิเศษ - ISO ซึ่งสามารถมุ่งเป้าไปที่เซิร์ฟเวอร์ NFS เพิ่มมัน:
ที่เก็บข้อมูล → โดเมน → โดเมนใหม่
ฟังก์ชั่นโดเมน → ISO,
เส้นทางการส่งออก - เช่น mynfs01.example.com:/exports/ovirt-iso (ในขณะที่เชื่อมต่อ โฟลเดอร์จะต้องว่างเปล่า ผู้จัดการจะต้องสามารถเขียนลงไปได้)
ชื่อ - เช่น mynfs01-iso
ผู้จัดการจะสร้างโครงสร้างในการจัดเก็บภาพ
/ส่งออก/ovirt-iso/<some UUID>/images/11111111-1111-1111-1111-111111111111/
หากมีอิมเมจ ISO อยู่แล้วบนเซิร์ฟเวอร์ NFS ของเรา เพื่อประหยัดพื้นที่ จะสะดวกที่จะลิงก์อิมเมจเหล่านั้นไปยังโฟลเดอร์นี้แทนการคัดลอกไฟล์
วีเอ็มแรก
ในขั้นตอนนี้ คุณสามารถสร้างเครื่องเสมือนเครื่องแรก ติดตั้งระบบปฏิบัติการและแอพพลิเคชั่นซอฟต์แวร์ลงไปได้แล้ว
คำนวณ → เครื่องเสมือน → ใหม่
สำหรับเครื่องใหม่ ให้ระบุชื่อ (ชื่อ) สร้างดิสก์ (Instance Images → Create) และเชื่อมต่ออินเทอร์เฟซเครือข่าย (สร้างอินสแตนซ์เครือข่าย VM โดยเลือกโปรไฟล์ vNIC → เลือก ovirtmgmt เดียวจากรายการในตอนนี้)
ในฝั่งไคลเอ็นต์คุณต้องมีเบราว์เซอร์ที่ทันสมัยและ
เปิดตัวเครื่องแรกสำเร็จแล้ว อย่างไรก็ตาม เพื่อให้การทำงานของระบบสมบูรณ์ยิ่งขึ้น จำเป็นต้องมีการตั้งค่าเพิ่มเติมจำนวนหนึ่ง ซึ่งเราจะดำเนินการต่อในบทความต่อไปนี้
ที่มา: will.com