oVirt om 2 timer. Del 2. Installation af manager og værter

Denne artikel er den næste i serien om oVirt, begyndelsen her.

Artikler

  1. Indledning
  2. Installation af en manager (ovirt-motor) og hypervisorer (værter) - Vi er her
  3. Yderligere indstillinger

Så lad os overveje problemerne med den indledende installation af ovirt-motoren og ovirt-host-komponenterne.

Mere detaljerede installationsprocesser kan altid findes i dokumentation.

Indhold

  1. Installation af ovirt-motor
  2. Installerer ovirt-host
  3. Tilføjelse af en node til oVirtN
  4. Opsætning af netværksgrænsefladen
  5. FC opsætning
  6. Opsætning af FCoE
  7. Opbevaring af ISO-billeder
  8. Første VM

Installation af ovirt-motor

For Engine er minimumskravene 2 kerner/4 GiB RAM/25 GiB lager. Anbefalet - fra 4 kerner/16 GiB RAM/50 GiB lager. Vi bruger muligheden Standalone Manager, når motoren kører på en dedikeret fysisk eller virtuel maskine uden for en administreret klynge. Til vores installation vil vi tage en virtuel maskine, for eksempel på en selvstændig ESXi*. Det er praktisk at bruge implementeringsautomatiseringsværktøjer eller kloning fra en tidligere forberedt skabelon eller kickstart-installation.

*Bemærk: For et produktionssystem er dette en dårlig idé, fordi... lederen arbejder uden forbehold og bliver en flaskehals. I dette tilfælde er det bedre at overveje muligheden for Self-hosted Engine.

Om nødvendigt er proceduren for konvertering af Standalone til Self Hosted beskrevet i detaljer i dokumentation. Især skal værten have geninstalleringskommandoen med Hosted Engine-understøttelse.

Vi installerer CentOS 7 på VM'en i en minimal konfiguration, og opdaterer og genstarter derefter systemet:

$ sudo yum update -y && sudo reboot

Det er nyttigt at installere en gæsteagent til en virtuel maskine:

$ sudo yum install open-vm-tools

for VMware ESXi-værter eller for oVirt:

$ sudo yum install ovirt-guest-agent

Tilslut depotet og installer manageren:

$ sudo yum install https://resources.ovirt.org/pub/yum-repo/ovirt-release43.rpm
$ sudo yum install ovirt-engine

Grundlæggende opsætning:

$ sudo engine-setup

I de fleste tilfælde er standardindstillingerne tilstrækkelige; for at bruge dem automatisk kan du køre konfigurationen med tasten:

$ sudo engine-setup --accept-defaults

Nu kan vi koble til vores nye motor kl ovirt.lab.example.com. Det er stadig tomt her, så lad os gå videre til at installere hypervisorer.

Installerer ovirt-host

Vi installerer CentOS 7 i en minimal konfiguration på en fysisk vært, forbinder derefter depotet, opdaterer og genstarter systemet:

$ sudo yum install https://resources.ovirt.org/pub/yum-repo/ovirt-release43.rpm
$ sudo yum update -y && sudo reboot

Bemærk: Det er praktisk at bruge installationsautomatiseringsværktøjer eller kickstart-installation til installation.

Eksempel på kickstart-fil
Advarsel! Eksisterende partitioner slettes automatisk! Vær forsigtig!

# System authorization information
auth --enableshadow --passalgo=sha512
# Use CDROM installation media
cdrom
# Use graphical install
graphical
# Run the Setup Agent on first boot
firstboot --enable
ignoredisk --only-use=sda
# Keyboard layouts
keyboard --vckeymap=us --xlayouts='us','ru' --switch='grp:alt_shift_toggle'
# System language
lang ru_RU.UTF-8

# Network information
network  --bootproto=dhcp --device=ens192 --ipv6=auto --activate
network  --hostname=kvm01.lab.example.com

# Root password 'monteV1DE0'
rootpw --iscrypted $6$6oPcf0GW9VdmJe5w$6WBucrUPRdCAP.aBVnUfvaEu9ozkXq9M1TXiwOm41Y58DEerG8b3Ulme2YtxAgNHr6DGIJ02eFgVuEmYsOo7./
# User password 'metroP0!is'
user --name=mgmt --groups=wheel --iscrypted --password=$6$883g2lyXdkDLbKYR$B3yWx1aQZmYYi.aO10W2Bvw0Jpkl1upzgjhZr6lmITTrGaPupa5iC3kZAOvwDonZ/6ogNJe/59GN5U8Okp.qx.
# System services
services --enabled="chronyd"
# System timezone
timezone Europe/Moscow --isUtc
# System bootloader configuration
bootloader --append=" crashkernel=auto" --location=mbr --boot-drive=sda
# Partition clearing information
clearpart --all
# Disk partitioning information
part /boot --fstype xfs --size=1024 --ondisk=sda  --label=boot
part pv.01 --size=45056 --grow
volgroup HostVG pv.01 --reserved-percent=20
logvol swap --vgname=HostVG --name=lv_swap --fstype=swap --recommended
logvol none --vgname=HostVG --name=HostPool --thinpool --size=40960 --grow
logvol / --vgname=HostVG --name=lv_root --thin --fstype=ext4 --label="root" --poolname=HostPool --fsoptions="defaults,discard" --size=6144 --grow
logvol /var --vgname=HostVG --name=lv_var --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=16536
logvol /var/crash --vgname=HostVG --name=lv_var_crash --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=10240
logvol /var/log --vgname=HostVG --name=lv_var_log --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=8192
logvol /var/log/audit --vgname=HostVG --name=lv_var_audit --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=2048
logvol /home --vgname=HostVG --name=lv_home --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1024
logvol /tmp --vgname=HostVG --name=lv_tmp --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1024

%packages
@^minimal
@core
chrony
kexec-tools

%end

%addon com_redhat_kdump --enable --reserve-mb='auto'

%end

%anaconda
pwpolicy root --minlen=6 --minquality=1 --notstrict --nochanges --notempty
pwpolicy user --minlen=6 --minquality=1 --notstrict --nochanges --emptyok
pwpolicy luks --minlen=6 --minquality=1 --notstrict --nochanges --notempty
%end
# Reboot when the install is finished.
reboot --eject

Gem denne fil, f.eks. ftp.example.com/pub/labkvm.cfg. For at bruge scriptet, når du starter OS-installationen, skal du vælge 'Installer CentOS 7', aktivere parameterredigeringstilstand (Tab-tast) og tilføje til sidst (med et mellemrum uden anførselstegn)

' inst.ks=ftp://ftp.example.com/pub/labkvm.cfg'

.
Installationsscriptet sletter eksisterende partitioner på /dev/sda, opretter nye udvikler anbefalinger (det er praktisk at se dem efter installationen ved hjælp af lsblk-kommandoen). Værtsnavnet er sat som kvm01.lab.example.com (efter installationen kan du ændre det med kommandoen hostnameectl set-hostname kvm03.lab.example.com), IP-adressen opnås automatisk, tidszonen er Moskva, Russisk sprogunderstøttelse er blevet tilføjet.

Root brugeradgangskode: monteV1DE0, mgmt brugeradgangskode: metroP0!is.
Opmærksomhed! Eksisterende partitioner slettes automatisk! Vær forsigtig!

Vi gentager (eller udfører parallelt) på alle værter. Fra at tænde for en "tom" server til en klar tilstand, tager det omkring 2 minutter under hensyntagen til 20 lange downloads.

Tilføjelse af en node til oVirt

Det er meget enkelt:

Beregn → Værter → Ny →...

De obligatoriske felter i guiden er Navn (visningsnavn, f.eks. kvm03), Værtsnavn (FQDN, f.eks. kvm03.lab.example.com) og Authentication section - root-bruger (uforanderlig) — adgangskode eller offentlig SSH-nøgle.

Efter at have trykket på knappen Ok Du vil modtage en besked "Du har ikke konfigureret strømstyring for denne vært. Er du sikker på, at du vil fortsætte?". Dette er normalt - vi vil se på strømstyring senere, efter at værten er blevet tilsluttet. Men hvis de maskiner, som værterne er installeret på, ikke understøtter administration (IPMI, iLO, DRAC, osv.), anbefaler jeg at deaktivere det: Beregn → Klynger → Standard → Rediger → Fægtningsplan → Aktiver hegn, fjern markeringen i afkrydsningsfeltet.

Hvis oVirt-lageret ikke var forbundet til værten, vil installationen mislykkes, men det er okay - du skal tilføje det og derefter klikke på Installer -> Geninstaller.

Tilslutning af værten tager ikke mere end 5-10 minutter.

Opsætning af netværksgrænsefladen

Da vi bygger et fejltolerant system, skal netværksforbindelsen også give en redundant forbindelse, hvilket gøres i Compute → Hosts → fanen HOST → Netværksgrænseflader - Konfigurer værtsnetværk.

Afhængigt af dit netværksudstyrs muligheder og arkitektoniske tilgange er mulighederne mulige. Det er bedst at oprette forbindelse til en stak top-of-rack-switche, så netværkstilgængeligheden ikke afbrydes, hvis en fejler. Lad os se på eksemplet med en aggregeret LACP-kanal. For at konfigurere en samlet kanal skal du "tage" den 2. ubrugte adapter med musen og "tage" den til den 1. Et vindue åbnes Opret ny binding, hvor LACP (Mode 4, Dynamic link aggregation, 802.3ad) er valgt som standard. På switch-siden udføres den sædvanlige LACP-gruppekonfiguration. Hvis det ikke er muligt at bygge en stak af switches, kan du bruge Active-Backup-tilstanden (Mode 1). Vi ser på VLAN-indstillinger i den næste artikel, og vi går mere i detaljer med anbefalinger til opsætning af netværk i dokumentet Vejledning om planlægning og forudsætninger.

FC opsætning

Fibre Channel (FC) understøttes ud af æsken og er nem at bruge. Vi vil ikke oprette et lagernetværk, herunder opsætning af lagersystemer og zoneinddeling af stof-switche som en del af opsætningen af ​​oVirt.

Opsætning af FCoE

FCoE er efter min mening ikke blevet udbredt i storage-netværk, men bruges ofte på servere som “last mile”, for eksempel i HPE Virtual Connect.

Opsætning af FCoE kræver yderligere enkle trin.

Konfigurer FCoE Engine

Artikel på Red Hats hjemmeside B.3. Sådan konfigureres Red Hat Virtualization Manager til at bruge FCoE
På Manageren
, med følgende kommando tilføjer vi nøglen til manageren og genstarter den:


$ sudo engine-config -s UserDefinedNetworkCustomProperties='fcoe=^((enable|dcb|auto_vlan)=(yes|no),?)*$'
$ sudo systemctl restart ovirt-engine.service

Konfigurer Node FCoE

På oVirt-Hosts skal du installere

$ sudo yum install vdsm-hook-fcoe

Dernæst er den sædvanlige FCoE-opsætning, artikel om Red Hat: 25.5. Konfiguration af en fiberkanal over Ethernet-grænseflade.

For Broadcom CNA, se yderligere Brugervejledning FCoE-konfiguration for Broadcom-baserede adaptere.

Sørg for, at pakkerne er installeret (allerede i et minimum):

$ sudo yum install fcoe-utils lldpad

Dernæst er selve opsætningen (i stedet for ens3f2 og ens3f3 erstatter vi navnene på de CNA'er, der er inkluderet i lagernetværket):

$ sudo cp /etc/fcoe/cfg-ethx /etc/fcoe/cfg-ens3f2
$ sudo cp /etc/fcoe/cfg-ethx /etc/fcoe/cfg-ens3f3
$ sudo vim /etc/fcoe/cfg-ens3f2
$ sudo vim /etc/fcoe/cfg-ens3f3

Det er vigtigt: Hvis netværksinterfacet understøtter DCB/DCBX i hardware, skal parameteren DCB_REQUIRED indstilles til no.

DCB_REQUIRED=“ja” → #DCB_REQUIRED=“ja”

Dernæst skal du sikre dig, at adminStatus er deaktiveret på alle grænseflader, inkl. uden FCoE aktiveret:

$ sudo lldptool set-lldp -i ens3f0 adminStatus=disabled
...
$ sudo lldptool set-lldp -i ens3f3 adminStatus=disabled

Hvis der er andre netværksgrænseflader, kan du aktivere LLDP:

$ sudo systemctl start lldpad
$ sudo systemctl enable lldpad

Som nævnt tidligere, hvis hardware DCB/DCBX bruges, skal indstillingen DCB_REQUIRED være aktiveret i ingen og dette trin kan springes over.

$ sudo dcbtool sc ens3f2 dcb on
$ sudo dcbtool sc ens3f3 dcb on
$ sudo dcbtool sc ens3f2 app:fcoe e:1
$ sudo dcbtool sc ens3f3 app:fcoe e:1
$ sudo ip link set dev ens3f2 up
$ sudo ip link set dev ens3f3 up
$ sudo systemctl start fcoe
$ sudo systemctl enable fcoe

For netværksgrænseflader skal du kontrollere, om autostart er aktiveret:

$ sudo vim /etc/sysconfig/network-scripts/ifcfg-ens3f2
$ sudo vim /etc/sysconfig/network-scripts/ifcfg-ens3f3

ONBOOT=yes

Se konfigurerede FCoE-grænseflader, kommandoudgangen bør ikke være tom.

$ sudo fcoeadm -i

Efterfølgende konfiguration af FCoE udføres som for almindelig FC.

Dernæst kommer konfiguration af lagersystemer og netværk - zoneinddeling, SAN-hosts, oprettelse og præsentation af volumener/LUN'er, hvorefter lageret kan kobles til ovirt-hosts: Storage → Domains → New Domain.

Lad domænefunktion være som data, lagertype som fiberkanal, vært som enhver, navn som f.eks. storNN-volMM.

Dit lagersystem tillader helt sikkert forbindelse ikke kun for stireservation, men også for balancering. Mange moderne systemer er i stand til at transmittere data langs alle veje lige optimalt (ALUA aktiv/aktiv).

For at aktivere alle stier i den aktive tilstand skal du konfigurere multipasing, mere om dette i de følgende artikler.

Opsætning af NFS og iSCSI udføres på lignende måde.

Opbevaring af ISO-billeder

For at installere operativsystemet skal du bruge deres installationsfiler, som oftest er tilgængelige i form af ISO-billeder. Du kan bruge den indbyggede sti, men for at arbejde med billeder i oVirt er der udviklet en særlig type lagring - ISO, som kan rettes mod en NFS-server. Tilføj det:

Lager → Domæner → Nyt domæne,
Domænefunktion → ISO,
Eksportsti - f.eks. mynfs01.example.com:/exports/ovirt-iso (på tidspunktet for forbindelsen skal mappen være tom, administratoren skal kunne skrive til den),
Navn - f.eks. mynfs01-iso.

Lederen vil oprette en struktur til at gemme billeder
/exports/ovirt-iso/<some UUID>/images/11111111-1111-1111-1111-111111111111/

Hvis der allerede er ISO-billeder på vores NFS-server, er det for at spare plads praktisk at linke dem til denne mappe i stedet for at kopiere filer.

Første VM

På dette stadium kan du allerede oprette den første virtuelle maskine, installere operativsystemet og applikationssoftwaren på den.

Beregn → Virtuelle maskiner → Nyt

For den nye maskine skal du angive et navn (Navn), oprette en disk (Forekomstbilleder → Opret) og tilslutte en netværksgrænseflade (Instantér VM-netværksgrænseflader ved at vælge en vNIC-profil → vælg den eneste overordnede fra listen indtil videre).

På klientsiden har du brug for en moderne browser og SPICE klient at interagere med konsollen.

Den første maskine er blevet lanceret med succes. For en mere komplet drift af systemet kræves der dog en række yderligere indstillinger, som vi fortsætter i de følgende artikler.

Kilde: www.habr.com

Tilføj en kommentar