oVirt om 2 timer. Del 2. Installere manager og verter

Denne artikkelen er den neste i serien om oVirt, begynnelsen her.

Artikler

  1. Innledning
  2. Installere en manager (ovirt-motor) og hypervisorer (verter) - Vi er her
  3. Tilleggsinnstillinger

SĂ„ la oss vurdere problemene med den fĂžrste installasjonen av ovirt-motoren og ovirt-vertskomponentene.

Mer detaljerte installasjonsprosesser kan alltid finnes i dokumentasjon.

Innhold

  1. Installerer ovirt-motor
  2. Installerer ovirt-host
  3. Legger til en node til oVirtN
  4. Sette opp nettverksgrensesnittet
  5. FC oppsett
  6. Sette opp FCoE
  7. ISO-bildelagring
  8. FĂžrste VM

Installerer ovirt-motor

For Engine er minimumskravene 2 kjerner/4 GiB RAM/25 GiB lagring. Anbefalt - fra 4 kjerner/16 GiB RAM/50 GiB lagring. Vi bruker alternativet Standalone Manager nÄr motoren kjÞrer pÄ en dedikert fysisk eller virtuell maskin utenfor en administrert klynge. For vÄr installasjon vil vi ta en virtuell maskin, for eksempel pÄ en frittstÄende ESXi*. Det er praktisk Ä bruke automatiseringsverktÞy for distribusjon eller kloning fra en tidligere forberedt mal eller kickstart-installasjon.

*Merk: For et produksjonssystem er dette en dÄrlig idé fordi... lederen jobber uten reserve og blir en flaskehals. I dette tilfellet er det bedre Ä vurdere alternativet Self-hosted Engine.

Om nÞdvendig er prosedyren for Ä konvertere Standalone til Self Hosted beskrevet i detalj i dokumentasjon. Spesielt mÄ verten fÄ reinstall-kommandoen med stÞtte for Hosted Engine.

Vi installerer CentOS 7 pÄ VM i en minimal konfigurasjon, og oppdaterer og starter systemet pÄ nytt:

$ sudo yum update -y && sudo reboot

Det er nyttig Ă„ installere en gjesteagent for en virtuell maskin:

$ sudo yum install open-vm-tools

for VMware ESXi-verter, eller for oVirt:

$ sudo yum install ovirt-guest-agent

Koble til depotet og installer administratoren:

$ sudo yum install https://resources.ovirt.org/pub/yum-repo/ovirt-release43.rpm
$ sudo yum install ovirt-engine

Grunnleggende oppsett:

$ sudo engine-setup

I de fleste tilfeller er standardinnstillingene tilstrekkelige; for Ă„ bruke dem automatisk kan du kjĂžre konfigurasjonen med nĂžkkelen:

$ sudo engine-setup --accept-defaults

NÄ kan vi koble til vÄr nye motor kl ovirt.lab.example.com. Det er fortsatt tomt her, sÄ la oss gÄ videre til Ä installere hypervisorer.

Installerer ovirt-host

Vi installerer CentOS 7 i en minimal konfigurasjon pÄ en fysisk vert, kobler deretter til depotet, oppdaterer og starter systemet pÄ nytt:

$ sudo yum install https://resources.ovirt.org/pub/yum-repo/ovirt-release43.rpm
$ sudo yum update -y && sudo reboot

Merk: Det er praktisk Ă„ bruke automatiseringsverktĂžy for distribusjon eller kickstart-installasjon for installasjon.

Eksempel pÄ kickstart-fil
Advarsel! Eksisterende partisjoner slettes automatisk! VĂŠr forsiktig!

# System authorization information
auth --enableshadow --passalgo=sha512
# Use CDROM installation media
cdrom
# Use graphical install
graphical
# Run the Setup Agent on first boot
firstboot --enable
ignoredisk --only-use=sda
# Keyboard layouts
keyboard --vckeymap=us --xlayouts='us','ru' --switch='grp:alt_shift_toggle'
# System language
lang ru_RU.UTF-8

# Network information
network  --bootproto=dhcp --device=ens192 --ipv6=auto --activate
network  --hostname=kvm01.lab.example.com

# Root password 'monteV1DE0'
rootpw --iscrypted $6$6oPcf0GW9VdmJe5w$6WBucrUPRdCAP.aBVnUfvaEu9ozkXq9M1TXiwOm41Y58DEerG8b3Ulme2YtxAgNHr6DGIJ02eFgVuEmYsOo7./
# User password 'metroP0!is'
user --name=mgmt --groups=wheel --iscrypted --password=$6$883g2lyXdkDLbKYR$B3yWx1aQZmYYi.aO10W2Bvw0Jpkl1upzgjhZr6lmITTrGaPupa5iC3kZAOvwDonZ/6ogNJe/59GN5U8Okp.qx.
# System services
services --enabled="chronyd"
# System timezone
timezone Europe/Moscow --isUtc
# System bootloader configuration
bootloader --append=" crashkernel=auto" --location=mbr --boot-drive=sda
# Partition clearing information
clearpart --all
# Disk partitioning information
part /boot --fstype xfs --size=1024 --ondisk=sda  --label=boot
part pv.01 --size=45056 --grow
volgroup HostVG pv.01 --reserved-percent=20
logvol swap --vgname=HostVG --name=lv_swap --fstype=swap --recommended
logvol none --vgname=HostVG --name=HostPool --thinpool --size=40960 --grow
logvol / --vgname=HostVG --name=lv_root --thin --fstype=ext4 --label="root" --poolname=HostPool --fsoptions="defaults,discard" --size=6144 --grow
logvol /var --vgname=HostVG --name=lv_var --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=16536
logvol /var/crash --vgname=HostVG --name=lv_var_crash --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=10240
logvol /var/log --vgname=HostVG --name=lv_var_log --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=8192
logvol /var/log/audit --vgname=HostVG --name=lv_var_audit --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=2048
logvol /home --vgname=HostVG --name=lv_home --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1024
logvol /tmp --vgname=HostVG --name=lv_tmp --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1024

%packages
@^minimal
@core
chrony
kexec-tools

%end

%addon com_redhat_kdump --enable --reserve-mb='auto'

%end

%anaconda
pwpolicy root --minlen=6 --minquality=1 --notstrict --nochanges --notempty
pwpolicy user --minlen=6 --minquality=1 --notstrict --nochanges --emptyok
pwpolicy luks --minlen=6 --minquality=1 --notstrict --nochanges --notempty
%end
# Reboot when the install is finished.
reboot --eject

Lagre denne filen, f.eks. ftp.example.com/pub/labkvm.cfg. For Ä bruke skriptet nÄr du starter OS-installasjonen, velg 'Installer CentOS 7', aktiver parameterredigeringsmodus (Tab-tast) og legg til pÄ slutten (med et mellomrom, uten anfÞrselstegn)

' inst.ks=ftp://ftp.example.com/pub/labkvm.cfg'

.
Installasjonsskriptet sletter eksisterende partisjoner pÄ /dev/sda, oppretter nye anbefalinger fra utviklere (det er praktisk Ä se dem etter installasjon ved Ä bruke lsblk-kommandoen). Vertsnavnet er satt til kvm01.lab.example.com (etter installasjonen kan du endre det med kommandoen hostnameectl set-hostname kvm03.lab.example.com), IP-adressen hentes automatisk, tidssonen er Moskva, StÞtte for russisk sprÄk er lagt til.

Rotbrukerpassord: monteV1DE0, mgmt brukerpassord: metroP0!is.
Merk fĂžlgende! Eksisterende partisjoner slettes automatisk! VĂŠr forsiktig!

Vi gjentar (eller utfÞrer parallelt) pÄ alle verter. Fra Ä slÄ pÄ en "tom" server til en klar tilstand, tatt i betraktning 2 lange nedlastinger, tar det omtrent 20 minutter.

Legger til en node til oVirt

Det er veldig enkelt:

Compute → Verter → Nytt →...

De obligatoriske feltene i veiviseren er Navn (visningsnavn, f.eks. kvm03), vertsnavn (FQDN, f.eks. kvm03.lab.example.com) og Autentiseringsseksjon - root-bruker (uforanderlig) — passord eller offentlig SSH-nþkkel.

Etter Ă„ ha trykket pĂ„ knappen Ok Du vil motta en melding "Du har ikke konfigurert strĂžmstyring for denne verten. Er du sikker pĂ„ at du vil fortsette?". Dette er normalt - vi vil se pĂ„ strĂžmstyring senere, etter at verten har blitt tilkoblet. Men hvis maskinene som vertene er installert pĂ„ ikke stĂžtter administrasjon (IPMI, iLO, DRAC, etc.), anbefaler jeg Ă„ deaktivere det: Compute → Clusters → Standard → Edit → Fede Ploicy → Aktiver fekting, fjern avmerkingen i boksen.

Hvis oVirt-depotet ikke var koblet til verten, vil installasjonen mislykkes, men det er greit - du mÄ legge det til, og klikk deretter Installer -> Installer pÄ nytt.

Å koble til verten tar ikke mer enn 5-10 minutter.

Sette opp nettverksgrensesnittet

Siden vi bygger et feiltolerant system, mĂ„ nettverkstilkoblingen ogsĂ„ gi en redundant tilkobling, noe som gjĂžres i Compute → Hosts → fanen HOST → Nettverksgrensesnitt - Konfigurer vertsnettverk.

Avhengig av egenskapene til nettverksutstyret og arkitektoniske tilnÊrminger, er alternativer mulige. Det er best Ä koble til en stabel med top-of-rack-svitsjer, slik at nettverkstilgjengeligheten ikke blir avbrutt hvis en feiler. La oss se pÄ eksemplet med en aggregert LACP-kanal. For Ä konfigurere en aggregert kanal, "ta" den andre ubrukte adapteren med musen og "ta" den til den fÞrste. Et vindu Äpnes Opprett nytt bÄnd, der LACP (Mode 4, Dynamic link aggregation, 802.3ad) er valgt som standard. PÄ brytersiden utfÞres den vanlige LACP-gruppekonfigurasjonen. Hvis det ikke er mulig Ä bygge en stabel med brytere, kan du bruke Active-Backup-modus (Modus 1). Vi skal se pÄ VLAN-innstillinger i neste artikkel, og vi gÄr mer i detalj med anbefalinger for Ä sette opp et nettverk i dokumentet Veiledning for planlegging og forutsetninger.

FC oppsett

Fibre Channel (FC) stĂžttes ut av esken og er enkel Ă„ bruke. Vi vil ikke sette opp et lagringsnettverk, inkludert Ă„ sette opp lagringssystemer og sonestrukturbrytere som en del av Ă„ sette opp oVirt.

Sette opp FCoE

FCoE har etter min mening ikke blitt utbredt i lagringsnettverk, men brukes ofte pÄ servere som "last mile", for eksempel i HPE Virtual Connect.

Å sette opp FCoE krever flere enkle trinn.

Sett opp FCoE-motoren

Artikkel pÄ Red Hat-nettstedet B.3. Hvordan sette opp Red Hat Virtualization Manager for Ä bruke FCoE
PĂ„ lederen
, med fÞlgende kommando legger vi til nÞkkelen til lederen og starter den pÄ nytt:


$ sudo engine-config -s UserDefinedNetworkCustomProperties='fcoe=^((enable|dcb|auto_vlan)=(yes|no),?)*$'
$ sudo systemctl restart ovirt-engine.service

Sett opp Node FCoE

PÄ oVirt-Hosts mÄ du installere

$ sudo yum install vdsm-hook-fcoe

Neste er det vanlige FCoE-oppsettet, artikkel om Red Hat: 25.5. Konfigurere et fiberkanal over Ethernet-grensesnitt.

For Broadcom CNA, se i tillegg Brukerveiledning FCoE-konfigurasjon for Broadcom-baserte adaptere.

SĂžrg for at pakkene er installert (allerede i minimalt):

$ sudo yum install fcoe-utils lldpad

Neste er selve oppsettet (i stedet for ens3f2 og ens3f3 erstatter vi navnene pÄ CNA-ene som er inkludert i lagringsnettverket):

$ sudo cp /etc/fcoe/cfg-ethx /etc/fcoe/cfg-ens3f2
$ sudo cp /etc/fcoe/cfg-ethx /etc/fcoe/cfg-ens3f3
$ sudo vim /etc/fcoe/cfg-ens3f2
$ sudo vim /etc/fcoe/cfg-ens3f3

Det er viktig: Hvis nettverksgrensesnittet stÞtter DCB/DCBX i maskinvare, mÄ parameteren DCB_REQUIRED settes til no.

DCB_REQUIRED=“ja” → #DCB_REQUIRED=“ja”

Deretter bÞr du sÞrge for at adminStatus er deaktivert pÄ alle grensesnitt, inkl. uten FCoE aktivert:

$ sudo lldptool set-lldp -i ens3f0 adminStatus=disabled
...
$ sudo lldptool set-lldp -i ens3f3 adminStatus=disabled

Hvis det er andre nettverksgrensesnitt, kan du aktivere LLDP:

$ sudo systemctl start lldpad
$ sudo systemctl enable lldpad

Som nevnt tidligere, hvis maskinvare DCB/DCBX brukes, mÄ DCB_REQUIRED-innstillingen vÊre aktivert i Nei. og dette trinnet kan hoppes over.

$ sudo dcbtool sc ens3f2 dcb on
$ sudo dcbtool sc ens3f3 dcb on
$ sudo dcbtool sc ens3f2 app:fcoe e:1
$ sudo dcbtool sc ens3f3 app:fcoe e:1
$ sudo ip link set dev ens3f2 up
$ sudo ip link set dev ens3f3 up
$ sudo systemctl start fcoe
$ sudo systemctl enable fcoe

For nettverksgrensesnitt, sjekk om autostart er aktivert:

$ sudo vim /etc/sysconfig/network-scripts/ifcfg-ens3f2
$ sudo vim /etc/sysconfig/network-scripts/ifcfg-ens3f3

ONBOOT=yes

Vis konfigurerte FCoE-grensesnitt, kommandoutgangen skal ikke vĂŠre tom.

$ sudo fcoeadm -i

EtterfĂžlgende konfigurasjon av FCoE utfĂžres som for vanlig FC.

Deretter kommer konfigurering av lagringssystemer og nettverk - sonering, SAN-verter, opprettelse og presentasjon av volumer/LUN, hvoretter lagringen kan kobles til ovirt-hosts: Lagring → Domener → Nytt domene.

La domenefunksjonen vĂŠre data, lagringstype som fiberkanal, vert som en hvilken som helst, navn som f.eks. storNN-volMM.

Lagringssystemet ditt tillater sikkert tilkobling ikke bare for banereservasjon, men ogsÄ for balansering. Mange moderne systemer er i stand til Ä overfÞre data langs alle veier like optimalt (ALUA aktiv/aktiv).

For Ä aktivere alle stier i aktiv tilstand, mÄ du konfigurere multipasing, mer om dette i de fÞlgende artiklene.

Oppsett av NFS og iSCSI gjÞres pÄ lignende mÄte.

ISO-bildelagring

For Ă„ installere operativsystemet trenger du installasjonsfilene deres, som oftest er tilgjengelige i form av ISO-bilder. Du kan bruke den innebygde banen, men for Ă„ jobbe med bilder i oVirt er det utviklet en spesiell type lagring – ISO, som kan rettes mot en NFS-server. Legg det til:

Lagring → Domener → Nytt domene,
Domenefunksjon → ISO,
Eksportbane - f.eks. mynfs01.example.com:/exports/ovirt-iso (pÄ tidspunktet for tilkoblingen mÄ mappen vÊre tom, administratoren mÄ kunne skrive til den),
Navn - f.eks. mynfs01-iso.

Lederen vil lage en struktur for Ă„ lagre bilder
/exports/ovirt-iso/<some UUID>/images/11111111-1111-1111-1111-111111111111/

Hvis det allerede er ISO-bilder pÄ NFS-serveren vÄr, er det for Ä spare plass praktisk Ä koble dem til denne mappen i stedet for Ä kopiere filer.

FĂžrste VM

PÄ dette stadiet kan du allerede lage den fÞrste virtuelle maskinen, installere OS og applikasjonsprogramvare pÄ den.

Compute → Virtual Machines → New

For den nye maskinen, spesifiser et navn (Navn), opprett en disk (Forekomstbilder → Opprett) og koble til et nettverksgrensesnitt (InstantĂ©r VM-nettverksgrensesnitt ved Ă„ velge en vNIC-profil → velg den eneste ovirtmgmt fra listen forelĂžpig).

PĂ„ klientsiden trenger du en moderne nettleser og SPICE klient for Ă„ samhandle med konsollen.

Den fĂžrste maskinen har blitt lansert. For en mer fullstendig drift av systemet kreves det imidlertid en rekke tilleggsinnstillinger, som vi vil fortsette i de fĂžlgende artiklene.

Kilde: www.habr.com

Legg til en kommentar