oVirt om 2 timer. Del 2. Installere manager og verter

Denne artikkelen er den neste i serien om oVirt, begynnelsen her.

Artikler

  1. Innledning
  2. Installere en manager (ovirt-motor) og hypervisorer (verter) - Vi er her
  3. Tilleggsinnstillinger

Så la oss vurdere problemene med den første installasjonen av ovirt-motoren og ovirt-vertskomponentene.

Mer detaljerte installasjonsprosesser kan alltid finnes i dokumentasjon.

Innhold

  1. Installerer ovirt-motor
  2. Installerer ovirt-host
  3. Legger til en node til oVirtN
  4. Sette opp nettverksgrensesnittet
  5. FC oppsett
  6. Sette opp FCoE
  7. ISO-bildelagring
  8. Første VM

Installerer ovirt-motor

For Engine er minimumskravene 2 kjerner/4 GiB RAM/25 GiB lagring. Anbefalt - fra 4 kjerner/16 GiB RAM/50 GiB lagring. Vi bruker alternativet Standalone Manager når motoren kjører på en dedikert fysisk eller virtuell maskin utenfor en administrert klynge. For vår installasjon vil vi ta en virtuell maskin, for eksempel på en frittstående ESXi*. Det er praktisk å bruke automatiseringsverktøy for distribusjon eller kloning fra en tidligere forberedt mal eller kickstart-installasjon.

*Merk: For et produksjonssystem er dette en dårlig idé fordi... lederen jobber uten reserve og blir en flaskehals. I dette tilfellet er det bedre å vurdere alternativet Self-hosted Engine.

Om nødvendig er prosedyren for å konvertere Standalone til Self Hosted beskrevet i detalj i dokumentasjon. Spesielt må verten få reinstall-kommandoen med støtte for Hosted Engine.

Vi installerer CentOS 7 på VM i en minimal konfigurasjon, og oppdaterer og starter systemet på nytt:

$ sudo yum update -y && sudo reboot

Det er nyttig å installere en gjesteagent for en virtuell maskin:

$ sudo yum install open-vm-tools

for VMware ESXi-verter, eller for oVirt:

$ sudo yum install ovirt-guest-agent

Koble til depotet og installer administratoren:

$ sudo yum install https://resources.ovirt.org/pub/yum-repo/ovirt-release43.rpm
$ sudo yum install ovirt-engine

Grunnleggende oppsett:

$ sudo engine-setup

I de fleste tilfeller er standardinnstillingene tilstrekkelige; for å bruke dem automatisk kan du kjøre konfigurasjonen med nøkkelen:

$ sudo engine-setup --accept-defaults

Nå kan vi koble til vår nye motor kl ovirt.lab.example.com. Det er fortsatt tomt her, så la oss gå videre til å installere hypervisorer.

Installerer ovirt-host

Vi installerer CentOS 7 i en minimal konfigurasjon på en fysisk vert, kobler deretter til depotet, oppdaterer og starter systemet på nytt:

$ sudo yum install https://resources.ovirt.org/pub/yum-repo/ovirt-release43.rpm
$ sudo yum update -y && sudo reboot

Merk: Det er praktisk å bruke automatiseringsverktøy for distribusjon eller kickstart-installasjon for installasjon.

Eksempel på kickstart-fil
Advarsel! Eksisterende partisjoner slettes automatisk! Vær forsiktig!

# System authorization information
auth --enableshadow --passalgo=sha512
# Use CDROM installation media
cdrom
# Use graphical install
graphical
# Run the Setup Agent on first boot
firstboot --enable
ignoredisk --only-use=sda
# Keyboard layouts
keyboard --vckeymap=us --xlayouts='us','ru' --switch='grp:alt_shift_toggle'
# System language
lang ru_RU.UTF-8

# Network information
network  --bootproto=dhcp --device=ens192 --ipv6=auto --activate
network  --hostname=kvm01.lab.example.com

# Root password 'monteV1DE0'
rootpw --iscrypted $6$6oPcf0GW9VdmJe5w$6WBucrUPRdCAP.aBVnUfvaEu9ozkXq9M1TXiwOm41Y58DEerG8b3Ulme2YtxAgNHr6DGIJ02eFgVuEmYsOo7./
# User password 'metroP0!is'
user --name=mgmt --groups=wheel --iscrypted --password=$6$883g2lyXdkDLbKYR$B3yWx1aQZmYYi.aO10W2Bvw0Jpkl1upzgjhZr6lmITTrGaPupa5iC3kZAOvwDonZ/6ogNJe/59GN5U8Okp.qx.
# System services
services --enabled="chronyd"
# System timezone
timezone Europe/Moscow --isUtc
# System bootloader configuration
bootloader --append=" crashkernel=auto" --location=mbr --boot-drive=sda
# Partition clearing information
clearpart --all
# Disk partitioning information
part /boot --fstype xfs --size=1024 --ondisk=sda  --label=boot
part pv.01 --size=45056 --grow
volgroup HostVG pv.01 --reserved-percent=20
logvol swap --vgname=HostVG --name=lv_swap --fstype=swap --recommended
logvol none --vgname=HostVG --name=HostPool --thinpool --size=40960 --grow
logvol / --vgname=HostVG --name=lv_root --thin --fstype=ext4 --label="root" --poolname=HostPool --fsoptions="defaults,discard" --size=6144 --grow
logvol /var --vgname=HostVG --name=lv_var --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=16536
logvol /var/crash --vgname=HostVG --name=lv_var_crash --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=10240
logvol /var/log --vgname=HostVG --name=lv_var_log --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=8192
logvol /var/log/audit --vgname=HostVG --name=lv_var_audit --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=2048
logvol /home --vgname=HostVG --name=lv_home --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1024
logvol /tmp --vgname=HostVG --name=lv_tmp --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1024

%packages
@^minimal
@core
chrony
kexec-tools

%end

%addon com_redhat_kdump --enable --reserve-mb='auto'

%end

%anaconda
pwpolicy root --minlen=6 --minquality=1 --notstrict --nochanges --notempty
pwpolicy user --minlen=6 --minquality=1 --notstrict --nochanges --emptyok
pwpolicy luks --minlen=6 --minquality=1 --notstrict --nochanges --notempty
%end
# Reboot when the install is finished.
reboot --eject

Lagre denne filen, f.eks. ftp.example.com/pub/labkvm.cfg. For å bruke skriptet når du starter OS-installasjonen, velg 'Installer CentOS 7', aktiver parameterredigeringsmodus (Tab-tast) og legg til på slutten (med et mellomrom, uten anførselstegn)

' inst.ks=ftp://ftp.example.com/pub/labkvm.cfg'

.
Installasjonsskriptet sletter eksisterende partisjoner på /dev/sda, oppretter nye anbefalinger fra utviklere (det er praktisk å se dem etter installasjon ved å bruke lsblk-kommandoen). Vertsnavnet er satt til kvm01.lab.example.com (etter installasjonen kan du endre det med kommandoen hostnameectl set-hostname kvm03.lab.example.com), IP-adressen hentes automatisk, tidssonen er Moskva, Støtte for russisk språk er lagt til.

Rotbrukerpassord: monteV1DE0, mgmt brukerpassord: metroP0!is.
Merk følgende! Eksisterende partisjoner slettes automatisk! Vær forsiktig!

Vi gjentar (eller utfører parallelt) på alle verter. Fra å slå på en "tom" server til en klar tilstand, tatt i betraktning 2 lange nedlastinger, tar det omtrent 20 minutter.

Legger til en node til oVirt

Det er veldig enkelt:

Compute → Verter → Nytt →...

De obligatoriske feltene i veiviseren er Navn (visningsnavn, f.eks. kvm03), vertsnavn (FQDN, f.eks. kvm03.lab.example.com) og Autentiseringsseksjon - root-bruker (uforanderlig) — passord eller offentlig SSH-nøkkel.

Etter å ha trykket på knappen Ok Du vil motta en melding "Du har ikke konfigurert strømstyring for denne verten. Er du sikker på at du vil fortsette?". Dette er normalt - vi vil se på strømstyring senere, etter at verten har blitt tilkoblet. Men hvis maskinene som vertene er installert på ikke støtter administrasjon (IPMI, iLO, DRAC, etc.), anbefaler jeg å deaktivere det: Compute → Clusters → Standard → Edit → Fede Ploicy → Aktiver fekting, fjern avmerkingen i boksen.

Hvis oVirt-depotet ikke var koblet til verten, vil installasjonen mislykkes, men det er greit - du må legge det til, og klikk deretter Installer -> Installer på nytt.

Å koble til verten tar ikke mer enn 5-10 minutter.

Sette opp nettverksgrensesnittet

Siden vi bygger et feiltolerant system, må nettverkstilkoblingen også gi en redundant tilkobling, noe som gjøres i Compute → Hosts → fanen HOST → Nettverksgrensesnitt - Konfigurer vertsnettverk.

Avhengig av egenskapene til nettverksutstyret og arkitektoniske tilnærminger, er alternativer mulige. Det er best å koble til en stabel med top-of-rack-svitsjer, slik at nettverkstilgjengeligheten ikke blir avbrutt hvis en feiler. La oss se på eksemplet med en aggregert LACP-kanal. For å konfigurere en aggregert kanal, "ta" den andre ubrukte adapteren med musen og "ta" den til den første. Et vindu åpnes Opprett nytt bånd, der LACP (Mode 4, Dynamic link aggregation, 802.3ad) er valgt som standard. På brytersiden utføres den vanlige LACP-gruppekonfigurasjonen. Hvis det ikke er mulig å bygge en stabel med brytere, kan du bruke Active-Backup-modus (Modus 1). Vi skal se på VLAN-innstillinger i neste artikkel, og vi går mer i detalj med anbefalinger for å sette opp et nettverk i dokumentet Veiledning for planlegging og forutsetninger.

FC oppsett

Fibre Channel (FC) støttes ut av esken og er enkel å bruke. Vi vil ikke sette opp et lagringsnettverk, inkludert å sette opp lagringssystemer og sonestrukturbrytere som en del av å sette opp oVirt.

Sette opp FCoE

FCoE har etter min mening ikke blitt utbredt i lagringsnettverk, men brukes ofte på servere som "last mile", for eksempel i HPE Virtual Connect.

Å sette opp FCoE krever flere enkle trinn.

Sett opp FCoE-motoren

Artikkel på Red Hat-nettstedet B.3. Hvordan sette opp Red Hat Virtualization Manager for å bruke FCoE
På lederen
, med følgende kommando legger vi til nøkkelen til lederen og starter den på nytt:


$ sudo engine-config -s UserDefinedNetworkCustomProperties='fcoe=^((enable|dcb|auto_vlan)=(yes|no),?)*$'
$ sudo systemctl restart ovirt-engine.service

Sett opp Node FCoE

På oVirt-Hosts må du installere

$ sudo yum install vdsm-hook-fcoe

Neste er det vanlige FCoE-oppsettet, artikkel om Red Hat: 25.5. Konfigurere et fiberkanal over Ethernet-grensesnitt.

For Broadcom CNA, se i tillegg Brukerveiledning FCoE-konfigurasjon for Broadcom-baserte adaptere.

Sørg for at pakkene er installert (allerede i minimalt):

$ sudo yum install fcoe-utils lldpad

Neste er selve oppsettet (i stedet for ens3f2 og ens3f3 erstatter vi navnene på CNA-ene som er inkludert i lagringsnettverket):

$ sudo cp /etc/fcoe/cfg-ethx /etc/fcoe/cfg-ens3f2
$ sudo cp /etc/fcoe/cfg-ethx /etc/fcoe/cfg-ens3f3
$ sudo vim /etc/fcoe/cfg-ens3f2
$ sudo vim /etc/fcoe/cfg-ens3f3

Det er viktig: Hvis nettverksgrensesnittet støtter DCB/DCBX i maskinvare, må parameteren DCB_REQUIRED settes til no.

DCB_REQUIRED=“ja” → #DCB_REQUIRED=“ja”

Deretter bør du sørge for at adminStatus er deaktivert på alle grensesnitt, inkl. uten FCoE aktivert:

$ sudo lldptool set-lldp -i ens3f0 adminStatus=disabled
...
$ sudo lldptool set-lldp -i ens3f3 adminStatus=disabled

Hvis det er andre nettverksgrensesnitt, kan du aktivere LLDP:

$ sudo systemctl start lldpad
$ sudo systemctl enable lldpad

Som nevnt tidligere, hvis maskinvare DCB/DCBX brukes, må DCB_REQUIRED-innstillingen være aktivert i Nei. og dette trinnet kan hoppes over.

$ sudo dcbtool sc ens3f2 dcb on
$ sudo dcbtool sc ens3f3 dcb on
$ sudo dcbtool sc ens3f2 app:fcoe e:1
$ sudo dcbtool sc ens3f3 app:fcoe e:1
$ sudo ip link set dev ens3f2 up
$ sudo ip link set dev ens3f3 up
$ sudo systemctl start fcoe
$ sudo systemctl enable fcoe

For nettverksgrensesnitt, sjekk om autostart er aktivert:

$ sudo vim /etc/sysconfig/network-scripts/ifcfg-ens3f2
$ sudo vim /etc/sysconfig/network-scripts/ifcfg-ens3f3

ONBOOT=yes

Vis konfigurerte FCoE-grensesnitt, kommandoutgangen skal ikke være tom.

$ sudo fcoeadm -i

Etterfølgende konfigurasjon av FCoE utføres som for vanlig FC.

Deretter kommer konfigurering av lagringssystemer og nettverk - sonering, SAN-verter, opprettelse og presentasjon av volumer/LUN, hvoretter lagringen kan kobles til ovirt-hosts: Lagring → Domener → Nytt domene.

La domenefunksjonen være data, lagringstype som fiberkanal, vert som en hvilken som helst, navn som f.eks. storNN-volMM.

Lagringssystemet ditt tillater sikkert tilkobling ikke bare for banereservasjon, men også for balansering. Mange moderne systemer er i stand til å overføre data langs alle veier like optimalt (ALUA aktiv/aktiv).

For å aktivere alle stier i aktiv tilstand, må du konfigurere multipasing, mer om dette i de følgende artiklene.

Oppsett av NFS og iSCSI gjøres på lignende måte.

ISO-bildelagring

For å installere operativsystemet trenger du installasjonsfilene deres, som oftest er tilgjengelige i form av ISO-bilder. Du kan bruke den innebygde banen, men for å jobbe med bilder i oVirt er det utviklet en spesiell type lagring – ISO, som kan rettes mot en NFS-server. Legg det til:

Lagring → Domener → Nytt domene,
Domenefunksjon → ISO,
Eksportbane - f.eks. mynfs01.example.com:/exports/ovirt-iso (på tidspunktet for tilkoblingen må mappen være tom, administratoren må kunne skrive til den),
Navn - f.eks. mynfs01-iso.

Lederen vil lage en struktur for å lagre bilder
/exports/ovirt-iso/<some UUID>/images/11111111-1111-1111-1111-111111111111/

Hvis det allerede er ISO-bilder på NFS-serveren vår, er det for å spare plass praktisk å koble dem til denne mappen i stedet for å kopiere filer.

Første VM

På dette stadiet kan du allerede lage den første virtuelle maskinen, installere OS og applikasjonsprogramvare på den.

Compute → Virtual Machines → New

For den nye maskinen, spesifiser et navn (Navn), opprett en disk (Forekomstbilder → Opprett) og koble til et nettverksgrensesnitt (Instantér VM-nettverksgrensesnitt ved å velge en vNIC-profil → velg den eneste ovirtmgmt fra listen foreløpig).

På klientsiden trenger du en moderne nettleser og SPICE klient for å samhandle med konsollen.

Den første maskinen har blitt lansert. For en mer fullstendig drift av systemet kreves det imidlertid en rekke tilleggsinnstillinger, som vi vil fortsette i de følgende artiklene.

Kilde: www.habr.com

Legg til en kommentar