Denne artikkelen er den neste i serien om oVirt, begynnelsen .
Artikler
- Installere en manager (ovirt-motor) og hypervisorer (verter) - Vi er her
SĂ„ la oss vurdere problemene med den fĂžrste installasjonen av ovirt-motoren og ovirt-vertskomponentene.
Mer detaljerte installasjonsprosesser kan alltid finnes i .
Innhold
Installerer ovirt-motor
For Engine er minimumskravene 2 kjerner/4 GiB RAM/25 GiB lagring. Anbefalt - fra 4 kjerner/16 GiB RAM/50 GiB lagring. Vi bruker alternativet Standalone Manager nÄr motoren kjÞrer pÄ en dedikert fysisk eller virtuell maskin utenfor en administrert klynge. For vÄr installasjon vil vi ta en virtuell maskin, for eksempel pÄ en frittstÄende ESXi*. Det er praktisk Ä bruke automatiseringsverktÞy for distribusjon eller kloning fra en tidligere forberedt mal eller kickstart-installasjon.
*Merk: For et produksjonssystem er dette en dÄrlig idé fordi... lederen jobber uten reserve og blir en flaskehals. I dette tilfellet er det bedre Ä vurdere alternativet Self-hosted Engine.
Om nÞdvendig er prosedyren for Ä konvertere Standalone til Self Hosted beskrevet i detalj i . Spesielt mÄ verten fÄ reinstall-kommandoen med stÞtte for Hosted Engine.
Vi installerer CentOS 7 pÄ VM i en minimal konfigurasjon, og oppdaterer og starter systemet pÄ nytt:
$ sudo yum update -y && sudo rebootDet er nyttig Ă„ installere en gjesteagent for en virtuell maskin:
$ sudo yum install open-vm-toolsfor VMware ESXi-verter, eller for oVirt:
$ sudo yum install ovirt-guest-agentKoble til depotet og installer administratoren:
$ sudo yum install https://resources.ovirt.org/pub/yum-repo/ovirt-release43.rpm
$ sudo yum install ovirt-engine
Grunnleggende oppsett:
$ sudo engine-setupI de fleste tilfeller er standardinnstillingene tilstrekkelige; for Ă„ bruke dem automatisk kan du kjĂžre konfigurasjonen med nĂžkkelen:
$ sudo engine-setup --accept-defaults NÄ kan vi koble til vÄr nye motor kl . Det er fortsatt tomt her, sÄ la oss gÄ videre til Ä installere hypervisorer.
Installerer ovirt-host
Vi installerer CentOS 7 i en minimal konfigurasjon pÄ en fysisk vert, kobler deretter til depotet, oppdaterer og starter systemet pÄ nytt:
$ sudo yum install https://resources.ovirt.org/pub/yum-repo/ovirt-release43.rpm
$ sudo yum update -y && sudo reboot
Merk: Det er praktisk Ă„ bruke automatiseringsverktĂžy for distribusjon eller kickstart-installasjon for installasjon.
Eksempel pÄ kickstart-fil
Advarsel! Eksisterende partisjoner slettes automatisk! VĂŠr forsiktig!
# System authorization information
auth --enableshadow --passalgo=sha512
# Use CDROM installation media
cdrom
# Use graphical install
graphical
# Run the Setup Agent on first boot
firstboot --enable
ignoredisk --only-use=sda
# Keyboard layouts
keyboard --vckeymap=us --xlayouts='us','ru' --switch='grp:alt_shift_toggle'
# System language
lang ru_RU.UTF-8
# Network information
network --bootproto=dhcp --device=ens192 --ipv6=auto --activate
network --hostname=kvm01.lab.example.com
# Root password 'monteV1DE0'
rootpw --iscrypted $6$6oPcf0GW9VdmJe5w$6WBucrUPRdCAP.aBVnUfvaEu9ozkXq9M1TXiwOm41Y58DEerG8b3Ulme2YtxAgNHr6DGIJ02eFgVuEmYsOo7./
# User password 'metroP0!is'
user --name=mgmt --groups=wheel --iscrypted --password=$6$883g2lyXdkDLbKYR$B3yWx1aQZmYYi.aO10W2Bvw0Jpkl1upzgjhZr6lmITTrGaPupa5iC3kZAOvwDonZ/6ogNJe/59GN5U8Okp.qx.
# System services
services --enabled="chronyd"
# System timezone
timezone Europe/Moscow --isUtc
# System bootloader configuration
bootloader --append=" crashkernel=auto" --location=mbr --boot-drive=sda
# Partition clearing information
clearpart --all
# Disk partitioning information
part /boot --fstype xfs --size=1024 --ondisk=sda --label=boot
part pv.01 --size=45056 --grow
volgroup HostVG pv.01 --reserved-percent=20
logvol swap --vgname=HostVG --name=lv_swap --fstype=swap --recommended
logvol none --vgname=HostVG --name=HostPool --thinpool --size=40960 --grow
logvol / --vgname=HostVG --name=lv_root --thin --fstype=ext4 --label="root" --poolname=HostPool --fsoptions="defaults,discard" --size=6144 --grow
logvol /var --vgname=HostVG --name=lv_var --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=16536
logvol /var/crash --vgname=HostVG --name=lv_var_crash --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=10240
logvol /var/log --vgname=HostVG --name=lv_var_log --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=8192
logvol /var/log/audit --vgname=HostVG --name=lv_var_audit --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=2048
logvol /home --vgname=HostVG --name=lv_home --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1024
logvol /tmp --vgname=HostVG --name=lv_tmp --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1024
%packages
@^minimal
@core
chrony
kexec-tools
%end
%addon com_redhat_kdump --enable --reserve-mb='auto'
%end
%anaconda
pwpolicy root --minlen=6 --minquality=1 --notstrict --nochanges --notempty
pwpolicy user --minlen=6 --minquality=1 --notstrict --nochanges --emptyok
pwpolicy luks --minlen=6 --minquality=1 --notstrict --nochanges --notempty
%end
# Reboot when the install is finished.
reboot --eject
Lagre denne filen, f.eks. . For Ä bruke skriptet nÄr du starter OS-installasjonen, velg 'Installer CentOS 7', aktiver parameterredigeringsmodus (Tab-tast) og legg til pÄ slutten (med et mellomrom, uten anfÞrselstegn)
' inst.ks=ftp://ftp.example.com/pub/labkvm.cfg'.
Installasjonsskriptet sletter eksisterende partisjoner pÄ /dev/sda, oppretter nye (det er praktisk Ä se dem etter installasjon ved Ä bruke lsblk-kommandoen). Vertsnavnet er satt til kvm01.lab.example.com (etter installasjonen kan du endre det med kommandoen hostnameectl set-hostname kvm03.lab.example.com), IP-adressen hentes automatisk, tidssonen er Moskva, StÞtte for russisk sprÄk er lagt til.
Rotbrukerpassord: monteV1DE0, mgmt brukerpassord: metroP0!is.
Merk fĂžlgende! Eksisterende partisjoner slettes automatisk! VĂŠr forsiktig!
Vi gjentar (eller utfÞrer parallelt) pÄ alle verter. Fra Ä slÄ pÄ en "tom" server til en klar tilstand, tatt i betraktning 2 lange nedlastinger, tar det omtrent 20 minutter.
Legger til en node til oVirt
Det er veldig enkelt:
Compute â Verter â Nytt â...
De obligatoriske feltene i veiviseren er Navn (visningsnavn, f.eks. kvm03), vertsnavn (FQDN, f.eks. kvm03.lab.example.com) og Autentiseringsseksjon - root-bruker (uforanderlig) â passord eller offentlig SSH-nĂžkkel.
Etter Ă„ ha trykket pĂ„ knappen Ok Du vil motta en melding "Du har ikke konfigurert strĂžmstyring for denne verten. Er du sikker pĂ„ at du vil fortsette?". Dette er normalt - vi vil se pĂ„ strĂžmstyring senere, etter at verten har blitt tilkoblet. Men hvis maskinene som vertene er installert pĂ„ ikke stĂžtter administrasjon (IPMI, iLO, DRAC, etc.), anbefaler jeg Ă„ deaktivere det: Compute â Clusters â Standard â Edit â Fede Ploicy â Aktiver fekting, fjern avmerkingen i boksen.
Hvis oVirt-depotet ikke var koblet til verten, vil installasjonen mislykkes, men det er greit - du mÄ legge det til, og klikk deretter Installer -> Installer pÄ nytt.
Ă
koble til verten tar ikke mer enn 5-10 minutter.
Sette opp nettverksgrensesnittet
Siden vi bygger et feiltolerant system, mĂ„ nettverkstilkoblingen ogsĂ„ gi en redundant tilkobling, noe som gjĂžres i Compute â Hosts â fanen HOST â Nettverksgrensesnitt - Konfigurer vertsnettverk.
Avhengig av egenskapene til nettverksutstyret og arkitektoniske tilnÊrminger, er alternativer mulige. Det er best Ä koble til en stabel med top-of-rack-svitsjer, slik at nettverkstilgjengeligheten ikke blir avbrutt hvis en feiler. La oss se pÄ eksemplet med en aggregert LACP-kanal. For Ä konfigurere en aggregert kanal, "ta" den andre ubrukte adapteren med musen og "ta" den til den fÞrste. Et vindu Äpnes Opprett nytt bÄnd, der LACP (Mode 4, Dynamic link aggregation, 802.3ad) er valgt som standard. PÄ brytersiden utfÞres den vanlige LACP-gruppekonfigurasjonen. Hvis det ikke er mulig Ä bygge en stabel med brytere, kan du bruke Active-Backup-modus (Modus 1). Vi skal se pÄ VLAN-innstillinger i neste artikkel, og vi gÄr mer i detalj med anbefalinger for Ä sette opp et nettverk i dokumentet .
FC oppsett
Fibre Channel (FC) stĂžttes ut av esken og er enkel Ă„ bruke. Vi vil ikke sette opp et lagringsnettverk, inkludert Ă„ sette opp lagringssystemer og sonestrukturbrytere som en del av Ă„ sette opp oVirt.
Sette opp FCoE
FCoE har etter min mening ikke blitt utbredt i lagringsnettverk, men brukes ofte pÄ servere som "last mile", for eksempel i HPE Virtual Connect.
Ă sette opp FCoE krever flere enkle trinn.
Sett opp FCoE-motoren
Artikkel pÄ Red Hat-nettstedet , med fÞlgende kommando legger vi til nÞkkelen til lederen og starter den pÄ nytt:
$ sudo engine-config -s UserDefinedNetworkCustomProperties='fcoe=^((enable|dcb|auto_vlan)=(yes|no),?)*$'
$ sudo systemctl restart ovirt-engine.service
Sett opp Node FCoE
PÄ oVirt-Hosts mÄ du installere
$ sudo yum install vdsm-hook-fcoeNeste er det vanlige FCoE-oppsettet, artikkel om Red Hat: .
For Broadcom CNA, se i tillegg .
SĂžrg for at pakkene er installert (allerede i minimalt):
$ sudo yum install fcoe-utils lldpadNeste er selve oppsettet (i stedet for ens3f2 og ens3f3 erstatter vi navnene pÄ CNA-ene som er inkludert i lagringsnettverket):
$ sudo cp /etc/fcoe/cfg-ethx /etc/fcoe/cfg-ens3f2
$ sudo cp /etc/fcoe/cfg-ethx /etc/fcoe/cfg-ens3f3
$ sudo vim /etc/fcoe/cfg-ens3f2
$ sudo vim /etc/fcoe/cfg-ens3f3
Det er viktig: Hvis nettverksgrensesnittet stÞtter DCB/DCBX i maskinvare, mÄ parameteren DCB_REQUIRED settes til no.
DCB_REQUIRED=âjaâ â #DCB_REQUIRED=âjaâ
Deretter bÞr du sÞrge for at adminStatus er deaktivert pÄ alle grensesnitt, inkl. uten FCoE aktivert:
$ sudo lldptool set-lldp -i ens3f0 adminStatus=disabled
...
$ sudo lldptool set-lldp -i ens3f3 adminStatus=disabled
Hvis det er andre nettverksgrensesnitt, kan du aktivere LLDP:
$ sudo systemctl start lldpad
$ sudo systemctl enable lldpad
Som nevnt tidligere, hvis maskinvare DCB/DCBX brukes, mÄ DCB_REQUIRED-innstillingen vÊre aktivert i Nei. og dette trinnet kan hoppes over.
$ sudo dcbtool sc ens3f2 dcb on
$ sudo dcbtool sc ens3f3 dcb on
$ sudo dcbtool sc ens3f2 app:fcoe e:1
$ sudo dcbtool sc ens3f3 app:fcoe e:1
$ sudo ip link set dev ens3f2 up
$ sudo ip link set dev ens3f3 up
$ sudo systemctl start fcoe
$ sudo systemctl enable fcoe
For nettverksgrensesnitt, sjekk om autostart er aktivert:
$ sudo vim /etc/sysconfig/network-scripts/ifcfg-ens3f2
$ sudo vim /etc/sysconfig/network-scripts/ifcfg-ens3f3
ONBOOT=yesVis konfigurerte FCoE-grensesnitt, kommandoutgangen skal ikke vĂŠre tom.
$ sudo fcoeadm -iEtterfĂžlgende konfigurasjon av FCoE utfĂžres som for vanlig FC.
Deretter kommer konfigurering av lagringssystemer og nettverk - sonering, SAN-verter, opprettelse og presentasjon av volumer/LUN, hvoretter lagringen kan kobles til ovirt-hosts: Lagring â Domener â Nytt domene.
La domenefunksjonen vĂŠre data, lagringstype som fiberkanal, vert som en hvilken som helst, navn som f.eks. storNN-volMM.
Lagringssystemet ditt tillater sikkert tilkobling ikke bare for banereservasjon, men ogsÄ for balansering. Mange moderne systemer er i stand til Ä overfÞre data langs alle veier like optimalt (ALUA aktiv/aktiv).
For Ä aktivere alle stier i aktiv tilstand, mÄ du konfigurere multipasing, mer om dette i de fÞlgende artiklene.
Oppsett av NFS og iSCSI gjÞres pÄ lignende mÄte.
ISO-bildelagring
For Ă„ installere operativsystemet trenger du installasjonsfilene deres, som oftest er tilgjengelige i form av ISO-bilder. Du kan bruke den innebygde banen, men for Ă„ jobbe med bilder i oVirt er det utviklet en spesiell type lagring â ISO, som kan rettes mot en NFS-server. Legg det til:
Lagring â Domener â Nytt domene,
Domenefunksjon â ISO,
Eksportbane - f.eks. mynfs01.example.com:/exports/ovirt-iso (pÄ tidspunktet for tilkoblingen mÄ mappen vÊre tom, administratoren mÄ kunne skrive til den),
Navn - f.eks. mynfs01-iso.
Lederen vil lage en struktur for Ă„ lagre bilder
/exports/ovirt-iso/<some UUID>/images/11111111-1111-1111-1111-111111111111/
Hvis det allerede er ISO-bilder pÄ NFS-serveren vÄr, er det for Ä spare plass praktisk Ä koble dem til denne mappen i stedet for Ä kopiere filer.
FĂžrste VM
PÄ dette stadiet kan du allerede lage den fÞrste virtuelle maskinen, installere OS og applikasjonsprogramvare pÄ den.
Compute â Virtual Machines â New
For den nye maskinen, spesifiser et navn (Navn), opprett en disk (Forekomstbilder â Opprett) og koble til et nettverksgrensesnitt (InstantĂ©r VM-nettverksgrensesnitt ved Ă„ velge en vNIC-profil â velg den eneste ovirtmgmt fra listen forelĂžpig).
PĂ„ klientsiden trenger du en moderne nettleser og for Ă„ samhandle med konsollen.
Den fĂžrste maskinen har blitt lansert. For en mer fullstendig drift av systemet kreves det imidlertid en rekke tilleggsinnstillinger, som vi vil fortsette i de fĂžlgende artiklene.
Kilde: www.habr.com
