oVirt på 2 timmar. Del 2. Installera manager och värdar

Den här artikeln är nästa i serien om oVirt, början här.

Artiklar

  1. Inledning
  2. Installera en manager (ovirt-motor) och hypervisorer (värdar) - Vi är här
  3. Ytterligare inställningar

Så låt oss överväga frågorna med den initiala installationen av ovirt-motorn och ovirt-värdkomponenterna.

Mer detaljerade installationsprocesser finns alltid i dokumentation.

Innehåll

  1. Installerar ovirt-motor
  2. Installerar ovirt-host
  3. Lägger till en nod till oVirtN
  4. Konfigurera nätverksgränssnittet
  5. FC-uppställning
  6. Konfigurera FCoE
  7. ISO-bildlagring
  8. Första VM

Installerar ovirt-motor

För Engine är minimikraven 2 kärnor/4 GiB RAM/25 GiB lagring. Rekommenderas - från 4 kärnor/16 GiB RAM/50 GiB lagring. Vi använder alternativet Fristående Manager när motorn körs på en dedikerad fysisk eller virtuell maskin utanför ett hanterat kluster. För vår installation kommer vi att ta en virtuell maskin, till exempel på en fristående ESXi*. Det är bekvämt att använda automatiseringsverktyg för distribution eller kloning från en tidigare förberedd mall eller kickstart-installation.

*Obs: För ett produktionssystem är detta en dålig idé eftersom... chefen arbetar utan reserv och blir en flaskhals. I det här fallet är det bättre att överväga alternativet Self-hosted Engine.

Vid behov beskrivs proceduren för att konvertera Fristående till Self Hosted i detalj i dokumentation. I synnerhet måste värden ges kommandot ominstallera med stöd för Hosted Engine.

Vi installerar CentOS 7 på den virtuella datorn i en minimal konfiguration, uppdaterar och startar sedan om systemet:

$ sudo yum update -y && sudo reboot

Det är användbart att installera en gästagent för en virtuell maskin:

$ sudo yum install open-vm-tools

för VMware ESXi-värdar, eller för oVirt:

$ sudo yum install ovirt-guest-agent

Anslut arkivet och installera managern:

$ sudo yum install https://resources.ovirt.org/pub/yum-repo/ovirt-release43.rpm
$ sudo yum install ovirt-engine

Grundläggande inställning:

$ sudo engine-setup

I de flesta fall är standardinställningarna tillräckliga; för att använda dem automatiskt kan du köra konfigurationen med nyckeln:

$ sudo engine-setup --accept-defaults

Nu kan vi ansluta till vår nya motor kl ovirt.lab.example.com. Det är fortfarande tomt här, så låt oss gå vidare till att installera hypervisorer.

Installerar ovirt-host

Vi installerar CentOS 7 i en minimal konfiguration på en fysisk värd, ansluter sedan förvaret, uppdaterar och startar om systemet:

$ sudo yum install https://resources.ovirt.org/pub/yum-repo/ovirt-release43.rpm
$ sudo yum update -y && sudo reboot

Obs: Det är bekvämt att använda automationsverktyg för distribution eller kickstartinstallation för installation.

Exempel kickstart-fil
Varning! Befintliga partitioner raderas automatiskt! Var försiktig!

# System authorization information
auth --enableshadow --passalgo=sha512
# Use CDROM installation media
cdrom
# Use graphical install
graphical
# Run the Setup Agent on first boot
firstboot --enable
ignoredisk --only-use=sda
# Keyboard layouts
keyboard --vckeymap=us --xlayouts='us','ru' --switch='grp:alt_shift_toggle'
# System language
lang ru_RU.UTF-8

# Network information
network  --bootproto=dhcp --device=ens192 --ipv6=auto --activate
network  --hostname=kvm01.lab.example.com

# Root password 'monteV1DE0'
rootpw --iscrypted $6$6oPcf0GW9VdmJe5w$6WBucrUPRdCAP.aBVnUfvaEu9ozkXq9M1TXiwOm41Y58DEerG8b3Ulme2YtxAgNHr6DGIJ02eFgVuEmYsOo7./
# User password 'metroP0!is'
user --name=mgmt --groups=wheel --iscrypted --password=$6$883g2lyXdkDLbKYR$B3yWx1aQZmYYi.aO10W2Bvw0Jpkl1upzgjhZr6lmITTrGaPupa5iC3kZAOvwDonZ/6ogNJe/59GN5U8Okp.qx.
# System services
services --enabled="chronyd"
# System timezone
timezone Europe/Moscow --isUtc
# System bootloader configuration
bootloader --append=" crashkernel=auto" --location=mbr --boot-drive=sda
# Partition clearing information
clearpart --all
# Disk partitioning information
part /boot --fstype xfs --size=1024 --ondisk=sda  --label=boot
part pv.01 --size=45056 --grow
volgroup HostVG pv.01 --reserved-percent=20
logvol swap --vgname=HostVG --name=lv_swap --fstype=swap --recommended
logvol none --vgname=HostVG --name=HostPool --thinpool --size=40960 --grow
logvol / --vgname=HostVG --name=lv_root --thin --fstype=ext4 --label="root" --poolname=HostPool --fsoptions="defaults,discard" --size=6144 --grow
logvol /var --vgname=HostVG --name=lv_var --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=16536
logvol /var/crash --vgname=HostVG --name=lv_var_crash --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=10240
logvol /var/log --vgname=HostVG --name=lv_var_log --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=8192
logvol /var/log/audit --vgname=HostVG --name=lv_var_audit --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=2048
logvol /home --vgname=HostVG --name=lv_home --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1024
logvol /tmp --vgname=HostVG --name=lv_tmp --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1024

%packages
@^minimal
@core
chrony
kexec-tools

%end

%addon com_redhat_kdump --enable --reserve-mb='auto'

%end

%anaconda
pwpolicy root --minlen=6 --minquality=1 --notstrict --nochanges --notempty
pwpolicy user --minlen=6 --minquality=1 --notstrict --nochanges --emptyok
pwpolicy luks --minlen=6 --minquality=1 --notstrict --nochanges --notempty
%end
# Reboot when the install is finished.
reboot --eject

Spara denna fil, t.ex. ftp.example.com/pub/labkvm.cfg. För att använda skriptet när du startar OS-installationen, välj "Installera CentOS 7", aktivera parameterredigeringsläge (Tab-tangenten) och lägg till i slutet (med ett mellanslag, utan citattecken)

' inst.ks=ftp://ftp.example.com/pub/labkvm.cfg'

.
Installationsskriptet tar bort befintliga partitioner på /dev/sda, skapar nya utvecklares rekommendationer (det är bekvämt att se dem efter installationen med kommandot lsblk). Värdnamnet är inställt som kvm01.lab.example.com (efter installationen kan du ändra det med kommandot hostnameectl set-hostname kvm03.lab.example.com), IP-adressen erhålls automatiskt, tidszonen är Moskva, Ryska språkstöd har lagts till.

Root användarlösenord: monteV1DE0, mgmt användarlösenord: metroP0!is.
Uppmärksamhet! Befintliga partitioner raderas automatiskt! Var försiktig!

Vi upprepar (eller kör parallellt) på alla värdar. Från att slå på en "tom" server till ett klart läge, med hänsyn tagen till 2 långa nedladdningar, tar det cirka 20 minuter.

Lägger till en nod till oVirt

Det är väldigt enkelt:

Beräkna → Värdar → Nytt →...

De obligatoriska fälten i guiden är Namn (visningsnamn, t.ex. kvm03), Värdnamn (FQDN, t.ex. kvm03.lab.example.com) och Autentiseringssektion - rootanvändare (oföränderlig) — lösenord eller SSH Public Key.

Efter att ha tryckt på knappen Ok Du kommer att få ett meddelande "Du har inte konfigurerat Power Management för denna värd. Är du säker på att du vill fortsätta?". Detta är normalt - vi kommer att titta på energihantering senare, efter att värden har anslutits. Men om de maskiner som värdarna är installerade på inte stöder hantering (IPMI, iLO, DRAC, etc.), rekommenderar jag att du inaktiverar det: Beräkna → Kluster → Standard → Redigera → Fäktningsplan → Aktivera stängsel, avmarkera rutan.

Om oVirt-förvaret inte var anslutet till värden kommer installationen att misslyckas, men det är okej - du måste lägga till det och klicka sedan på Installera -> Installera om.

Att ansluta värden tar inte mer än 5-10 minuter.

Konfigurera nätverksgränssnittet

Eftersom vi bygger ett feltolerant system måste nätverksanslutningen även tillhandahålla en redundant anslutning, vilket görs i Compute → Hosts → fliken VÄRD → Nätverksgränssnitt - Konfigurera värdnätverk.

Beroende på kapaciteten hos din nätverksutrustning och arkitektoniska tillvägagångssätt är alternativ möjliga. Det är bäst att ansluta till en hög med växlar från toppen av racket så att nätverkets tillgänglighet inte avbryts om en misslyckas. Låt oss titta på exemplet på en aggregerad LACP-kanal. För att konfigurera en aggregerad kanal, "ta" den 2:a oanvända adaptern med musen och "ta" den till den 1:a. Ett fönster öppnas Skapa ett nytt band, där LACP (läge 4, dynamisk länkaggregation, 802.3ad) är valt som standard. På switchsidan utförs den vanliga LACP-gruppkonfigurationen. Om det inte är möjligt att bygga en stack med switchar kan du använda Active-Backup-läget (läge 1). Vi kommer att titta på VLAN-inställningar i nästa artikel, och vi kommer att gå in mer i detalj med rekommendationer för att sätta upp ett nätverk i dokumentet Planerings- och förkunskapsguide.

FC-uppställning

Fibre Channel (FC) stöds ur lådan och är lätt att använda. Vi kommer inte att sätta upp ett lagringsnätverk, inklusive konfigurering av lagringssystem och zonindelning av strukturomkopplare som en del av konfigureringen av oVirt.

Konfigurera FCoE

FCoE, enligt min mening, har inte blivit utbrett i lagringsnätverk, utan används ofta på servrar som "last mile", till exempel i HPE Virtual Connect.

Att ställa in FCoE kräver ytterligare enkla steg.

Ställ in FCoE Engine

Artikel på Red Hats hemsida B.3. Hur man ställer in Red Hat Virtualization Manager för att använda FCoE
På chefen
, med följande kommando lägger vi till nyckeln till managern och startar om den:


$ sudo engine-config -s UserDefinedNetworkCustomProperties='fcoe=^((enable|dcb|auto_vlan)=(yes|no),?)*$'
$ sudo systemctl restart ovirt-engine.service

Ställ in Nod FCoE

På oVirt-Hosts måste du installera

$ sudo yum install vdsm-hook-fcoe

Nästa är den vanliga FCoE-inställningen, artikel om Red Hat: 25.5. Konfigurera ett fiberkanal över Ethernet-gränssnitt.

För Broadcom CNA, titta ytterligare Användarhandbok FCoE-konfiguration för Broadcom-baserade adaptrar.

Se till att paketen är installerade (redan i minimalt):

$ sudo yum install fcoe-utils lldpad

Nästa är själva installationen (istället för ens3f2 och ens3f3 ersätter vi namnen på de CNA som ingår i lagringsnätverket):

$ sudo cp /etc/fcoe/cfg-ethx /etc/fcoe/cfg-ens3f2
$ sudo cp /etc/fcoe/cfg-ethx /etc/fcoe/cfg-ens3f3
$ sudo vim /etc/fcoe/cfg-ens3f2
$ sudo vim /etc/fcoe/cfg-ens3f3

Det är viktigt: Om nätverksgränssnittet stöder DCB/DCBX i hårdvara, måste parametern DCB_REQUIRED ställas in på no.

DCB_REQUIRED=”ja” → #DCB_REQUIRED=”ja”

Därefter bör du se till att adminStatus är inaktiverat på alla gränssnitt, inkl. utan FCoE aktiverat:

$ sudo lldptool set-lldp -i ens3f0 adminStatus=disabled
...
$ sudo lldptool set-lldp -i ens3f3 adminStatus=disabled

Om det finns andra nätverksgränssnitt kan du aktivera LLDP:

$ sudo systemctl start lldpad
$ sudo systemctl enable lldpad

Som nämnts tidigare, om hårdvara DCB/DCBX används måste inställningen DCB_REQUIRED aktiveras i Nej och det här steget kan hoppas över.

$ sudo dcbtool sc ens3f2 dcb on
$ sudo dcbtool sc ens3f3 dcb on
$ sudo dcbtool sc ens3f2 app:fcoe e:1
$ sudo dcbtool sc ens3f3 app:fcoe e:1
$ sudo ip link set dev ens3f2 up
$ sudo ip link set dev ens3f3 up
$ sudo systemctl start fcoe
$ sudo systemctl enable fcoe

För nätverksgränssnitt, kontrollera om autostart är aktiverat:

$ sudo vim /etc/sysconfig/network-scripts/ifcfg-ens3f2
$ sudo vim /etc/sysconfig/network-scripts/ifcfg-ens3f3

ONBOOT=yes

Visa konfigurerade FCoE-gränssnitt, kommandoutgången ska inte vara tom.

$ sudo fcoeadm -i

Efterföljande konfiguration av FCoE utförs som för vanlig FC.

Därefter kommer konfigurering av lagringssystem och nätverk - zonindelning, SAN-värdar, skapande och presentation av volymer/LUN, varefter lagringen kan kopplas till ovirt-hosts: Lagring → Domäner → Ny domän.

Lämna domänfunktion som data, lagringstyp som fiberkanal, värd som valfri, namn som t.ex. storNN-volMM.

Säkert tillåter ditt lagringssystem anslutning inte bara för sökvägsreservation, utan också för balansering. Många moderna system är kapabla att överföra data längs alla vägar lika optimalt (ALUA aktiv/aktiv).

För att aktivera alla sökvägar i aktivt tillstånd måste du konfigurera multipasing, mer om detta i följande artiklar.

Att ställa in NFS och iSCSI görs på liknande sätt.

ISO-bildlagring

För att installera operativsystemet behöver du deras installationsfiler, oftast tillgängliga i form av ISO-bilder. Du kan använda den inbyggda sökvägen, men för att arbeta med bilder i oVirt har en speciell typ av lagring tagits fram – ISO, som kan riktas mot en NFS-server. Lägg till det:

Lagring → Domäner → Ny domän,
Domänfunktion → ISO,
Exportsökväg - t.ex. mynfs01.example.com:/exports/ovirt-iso (vid anslutningstillfället måste mappen vara tom, chefen måste kunna skriva till den),
Namn - t.ex. mynfs01-iso.

Chefen kommer att skapa en struktur för att lagra bilder
/exports/ovirt-iso/<some UUID>/images/11111111-1111-1111-1111-111111111111/

Om det redan finns ISO-bilder på vår NFS-server är det för att spara utrymme bekvämt att länka dem till den här mappen istället för att kopiera filer.

Första VM

I det här skedet kan du redan skapa den första virtuella maskinen, installera operativsystemet och programvaran på den.

Beräkna → Virtuella maskiner → Nytt

För den nya maskinen, ange ett namn (Namn), skapa en disk (Instansbilder → Skapa) och anslut ett nätverksgränssnitt (Instantera VM-nätverksgränssnitt genom att välja en vNIC-profil → välj den enda ovirtmgmt från listan för närvarande).

På klientsidan behöver du en modern webbläsare och SPICE klient för att interagera med konsolen.

Den första maskinen har lanserats framgångsrikt. För en mer komplett drift av systemet krävs dock ett antal ytterligare inställningar, vilket vi kommer att fortsätta i följande artiklar.

Källa: will.com

Lägg en kommentar