Så lad os overveje problemerne med den indledende installation af ovirt-motoren og ovirt-host-komponenterne.
Mere detaljerede installationsprocesser kan altid findes i dokumentation.
For Engine er minimumskravene 2 kerner/4 GiB RAM/25 GiB lager. Anbefalet - fra 4 kerner/16 GiB RAM/50 GiB lager. Vi bruger muligheden Standalone Manager, når motoren kører på en dedikeret fysisk eller virtuel maskine uden for en administreret klynge. Til vores installation vil vi tage en virtuel maskine, for eksempel på en selvstændig ESXi*. Det er praktisk at bruge implementeringsautomatiseringsværktøjer eller kloning fra en tidligere forberedt skabelon eller kickstart-installation.
*Bemærk: For et produktionssystem er dette en dårlig idé, fordi... lederen arbejder uden forbehold og bliver en flaskehals. I dette tilfælde er det bedre at overveje muligheden for Self-hosted Engine.
Om nødvendigt er proceduren for konvertering af Standalone til Self Hosted beskrevet i detaljer i dokumentation. Især skal værten have geninstalleringskommandoen med Hosted Engine-understøttelse.
Vi installerer CentOS 7 på VM'en i en minimal konfiguration, og opdaterer og genstarter derefter systemet:
$ sudo yum update -y && sudo reboot
Det er nyttigt at installere en gæsteagent til en virtuel maskine:
Bemærk: Det er praktisk at bruge installationsautomatiseringsværktøjer eller kickstart-installation til installation.
Eksempel på kickstart-fil
Advarsel! Eksisterende partitioner slettes automatisk! Vær forsigtig!
# System authorization information
auth --enableshadow --passalgo=sha512
# Use CDROM installation media
cdrom
# Use graphical install
graphical
# Run the Setup Agent on first boot
firstboot --enable
ignoredisk --only-use=sda
# Keyboard layouts
keyboard --vckeymap=us --xlayouts='us','ru' --switch='grp:alt_shift_toggle'
# System language
lang ru_RU.UTF-8
# Network information
network --bootproto=dhcp --device=ens192 --ipv6=auto --activate
network --hostname=kvm01.lab.example.com
# Root password 'monteV1DE0'
rootpw --iscrypted $6$6oPcf0GW9VdmJe5w$6WBucrUPRdCAP.aBVnUfvaEu9ozkXq9M1TXiwOm41Y58DEerG8b3Ulme2YtxAgNHr6DGIJ02eFgVuEmYsOo7./
# User password 'metroP0!is'
user --name=mgmt --groups=wheel --iscrypted --password=$6$883g2lyXdkDLbKYR$B3yWx1aQZmYYi.aO10W2Bvw0Jpkl1upzgjhZr6lmITTrGaPupa5iC3kZAOvwDonZ/6ogNJe/59GN5U8Okp.qx.
# System services
services --enabled="chronyd"
# System timezone
timezone Europe/Moscow --isUtc
# System bootloader configuration
bootloader --append=" crashkernel=auto" --location=mbr --boot-drive=sda
# Partition clearing information
clearpart --all
# Disk partitioning information
part /boot --fstype xfs --size=1024 --ondisk=sda --label=boot
part pv.01 --size=45056 --grow
volgroup HostVG pv.01 --reserved-percent=20
logvol swap --vgname=HostVG --name=lv_swap --fstype=swap --recommended
logvol none --vgname=HostVG --name=HostPool --thinpool --size=40960 --grow
logvol / --vgname=HostVG --name=lv_root --thin --fstype=ext4 --label="root" --poolname=HostPool --fsoptions="defaults,discard" --size=6144 --grow
logvol /var --vgname=HostVG --name=lv_var --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=16536
logvol /var/crash --vgname=HostVG --name=lv_var_crash --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=10240
logvol /var/log --vgname=HostVG --name=lv_var_log --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=8192
logvol /var/log/audit --vgname=HostVG --name=lv_var_audit --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=2048
logvol /home --vgname=HostVG --name=lv_home --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1024
logvol /tmp --vgname=HostVG --name=lv_tmp --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1024
%packages
@^minimal
@core
chrony
kexec-tools
%end
%addon com_redhat_kdump --enable --reserve-mb='auto'
%end
%anaconda
pwpolicy root --minlen=6 --minquality=1 --notstrict --nochanges --notempty
pwpolicy user --minlen=6 --minquality=1 --notstrict --nochanges --emptyok
pwpolicy luks --minlen=6 --minquality=1 --notstrict --nochanges --notempty
%end
# Reboot when the install is finished.
reboot --eject
Gem denne fil, f.eks. ftp.example.com/pub/labkvm.cfg. For at bruge scriptet, når du starter OS-installationen, skal du vælge 'Installer CentOS 7', aktivere parameterredigeringstilstand (Tab-tast) og tilføje til sidst (med et mellemrum uden anførselstegn)
' inst.ks=ftp://ftp.example.com/pub/labkvm.cfg'
.
Installationsscriptet sletter eksisterende partitioner på /dev/sda, opretter nye udvikler anbefalinger (det er praktisk at se dem efter installationen ved hjælp af lsblk-kommandoen). Værtsnavnet er sat som kvm01.lab.example.com (efter installationen kan du ændre det med kommandoen hostnameectl set-hostname kvm03.lab.example.com), IP-adressen opnås automatisk, tidszonen er Moskva, Russisk sprogunderstøttelse er blevet tilføjet.
Vi gentager (eller udfører parallelt) på alle værter. Fra at tænde for en "tom" server til en klar tilstand, tager det omkring 2 minutter under hensyntagen til 20 lange downloads.
Tilføjelse af en node til oVirt
Det er meget enkelt:
Beregn → Værter → Ny →...
De obligatoriske felter i guiden er Navn (visningsnavn, f.eks. kvm03), Værtsnavn (FQDN, f.eks. kvm03.lab.example.com) og Authentication section - root-bruger (uforanderlig) — adgangskode eller offentlig SSH-nøgle.
Efter at have trykket på knappen Ok Du vil modtage en besked "Du har ikke konfigureret strømstyring for denne vært. Er du sikker på, at du vil fortsætte?". Dette er normalt - vi vil se på strømstyring senere, efter at værten er blevet tilsluttet. Men hvis de maskiner, som værterne er installeret på, ikke understøtter administration (IPMI, iLO, DRAC, osv.), anbefaler jeg at deaktivere det: Beregn → Klynger → Standard → Rediger → Fægtningsplan → Aktiver hegn, fjern markeringen i afkrydsningsfeltet.
Hvis oVirt-lageret ikke var forbundet til værten, vil installationen mislykkes, men det er okay - du skal tilføje det og derefter klikke på Installer -> Geninstaller.
Tilslutning af værten tager ikke mere end 5-10 minutter.
Opsætning af netværksgrænsefladen
Da vi bygger et fejltolerant system, skal netværksforbindelsen også give en redundant forbindelse, hvilket gøres i Compute → Hosts → fanen HOST → Netværksgrænseflader - Konfigurer værtsnetværk.
Afhængigt af dit netværksudstyrs muligheder og arkitektoniske tilgange er mulighederne mulige. Det er bedst at oprette forbindelse til en stak top-of-rack-switche, så netværkstilgængeligheden ikke afbrydes, hvis en fejler. Lad os se på eksemplet med en aggregeret LACP-kanal. For at konfigurere en samlet kanal skal du "tage" den 2. ubrugte adapter med musen og "tage" den til den 1. Et vindue åbnes Opret ny binding, hvor LACP (Mode 4, Dynamic link aggregation, 802.3ad) er valgt som standard. På switch-siden udføres den sædvanlige LACP-gruppekonfiguration. Hvis det ikke er muligt at bygge en stak af switches, kan du bruge Active-Backup-tilstanden (Mode 1). Vi ser på VLAN-indstillinger i den næste artikel, og vi går mere i detaljer med anbefalinger til opsætning af netværk i dokumentet Vejledning om planlægning og forudsætninger.
FC opsætning
Fibre Channel (FC) understøttes ud af æsken og er nem at bruge. Vi vil ikke oprette et lagernetværk, herunder opsætning af lagersystemer og zoneinddeling af stof-switche som en del af opsætningen af oVirt.
Opsætning af FCoE
FCoE er efter min mening ikke blevet udbredt i storage-netværk, men bruges ofte på servere som “last mile”, for eksempel i HPE Virtual Connect.
Som nævnt tidligere, hvis hardware DCB/DCBX bruges, skal indstillingen DCB_REQUIRED være aktiveret i ingen og dette trin kan springes over.
$ sudo dcbtool sc ens3f2 dcb on
$ sudo dcbtool sc ens3f3 dcb on
$ sudo dcbtool sc ens3f2 app:fcoe e:1
$ sudo dcbtool sc ens3f3 app:fcoe e:1
$ sudo ip link set dev ens3f2 up
$ sudo ip link set dev ens3f3 up
$ sudo systemctl start fcoe
$ sudo systemctl enable fcoe
For netværksgrænseflader skal du kontrollere, om autostart er aktiveret:
$ sudo vim /etc/sysconfig/network-scripts/ifcfg-ens3f2
$ sudo vim /etc/sysconfig/network-scripts/ifcfg-ens3f3
ONBOOT=yes
Se konfigurerede FCoE-grænseflader, kommandoudgangen bør ikke være tom.
$ sudo fcoeadm -i
Efterfølgende konfiguration af FCoE udføres som for almindelig FC.
Dernæst kommer konfiguration af lagersystemer og netværk - zoneinddeling, SAN-hosts, oprettelse og præsentation af volumener/LUN'er, hvorefter lageret kan kobles til ovirt-hosts: Storage → Domains → New Domain.
Lad domænefunktion være som data, lagertype som fiberkanal, vært som enhver, navn som f.eks. storNN-volMM.
Dit lagersystem tillader helt sikkert forbindelse ikke kun for stireservation, men også for balancering. Mange moderne systemer er i stand til at transmittere data langs alle veje lige optimalt (ALUA aktiv/aktiv).
For at aktivere alle stier i den aktive tilstand skal du konfigurere multipasing, mere om dette i de følgende artikler.
Opsætning af NFS og iSCSI udføres på lignende måde.
Opbevaring af ISO-billeder
For at installere operativsystemet skal du bruge deres installationsfiler, som oftest er tilgængelige i form af ISO-billeder. Du kan bruge den indbyggede sti, men for at arbejde med billeder i oVirt er der udviklet en særlig type lagring - ISO, som kan rettes mod en NFS-server. Tilføj det:
Lager → Domæner → Nyt domæne,
Domænefunktion → ISO,
Eksportsti - f.eks. mynfs01.example.com:/exports/ovirt-iso (på tidspunktet for forbindelsen skal mappen være tom, administratoren skal kunne skrive til den),
Navn - f.eks. mynfs01-iso.
Lederen vil oprette en struktur til at gemme billeder
/exports/ovirt-iso/<some UUID>/images/11111111-1111-1111-1111-111111111111/
Hvis der allerede er ISO-billeder på vores NFS-server, er det for at spare plads praktisk at linke dem til denne mappe i stedet for at kopiere filer.
Første VM
På dette stadium kan du allerede oprette den første virtuelle maskine, installere operativsystemet og applikationssoftwaren på den.
Beregn → Virtuelle maskiner → Nyt
For den nye maskine skal du angive et navn (Navn), oprette en disk (Forekomstbilleder → Opret) og tilslutte en netværksgrænseflade (Instantér VM-netværksgrænseflader ved at vælge en vNIC-profil → vælg den eneste overordnede fra listen indtil videre).
På klientsiden har du brug for en moderne browser og SPICE klient at interagere med konsollen.
Den første maskine er blevet lanceret med succes. For en mere komplet drift af systemet kræves der dog en række yderligere indstillinger, som vi fortsætter i de følgende artikler.