oVirt în 2 ore. Partea 2. Instalarea managerului și a gazdelor

Acest articol este următorul din seria despre oVirt, începutul aici.

Articole

  1. Introducere
  2. Instalarea unui manager (ovirt-engine) și a hipervizoarelor (gazde) - Suntem aici
  3. Setări avansate

Deci, să luăm în considerare problemele instalării inițiale a componentelor ovirt-engine și ovirt-host.

Procese de instalare mai detaliate pot fi întotdeauna găsite în documentație.

Conținut

  1. Instalarea ovirt-engine
  2. Se instalează ovirt-host
  3. Adăugarea unui nod la oVirtN
  4. Configurarea interfeței de rețea
  5. Configurare FC
  6. Configurarea FCoE
  7. Stocare de imagini ISO
  8. Primul VM

Instalarea ovirt-engine

Pentru Engine, cerințele minime sunt 2 nuclee/4 GiB RAM/25 GiB stocare. Recomandat - de la 4 nuclee/16 GiB de RAM/50 GiB de stocare. Folosim opțiunea Standalone Manager, atunci când motorul rulează pe o mașină fizică sau virtuală dedicată în afara unui cluster gestionat. Pentru instalarea noastră, vom lua o mașină virtuală, de exemplu, pe un ESXi* autonom. Este convenabil să utilizați instrumente de automatizare a implementării sau clonarea dintr-un șablon pregătit anterior sau o instalare kickstart.

*Notă: Pentru un sistem de producție, aceasta este o idee proastă deoarece... managerul lucrează fără rezervă și devine un blocaj. În acest caz, este mai bine să luați în considerare opțiunea Motor auto-găzduit.

Dacă este necesar, procedura de conversie Standalone în Self Hosted este descrisă în detaliu în documentație. În special, gazda trebuie să primească comanda de reinstalare cu suport Hosted Engine.

Instalăm CentOS 7 pe VM într-o configurație minimă, apoi actualizăm și repornim sistemul:

$ sudo yum update -y && sudo reboot

Este util să instalați un agent invitat pentru o mașină virtuală:

$ sudo yum install open-vm-tools

pentru gazdele VMware ESXi sau pentru oVirt:

$ sudo yum install ovirt-guest-agent

Conectați depozitul și instalați managerul:

$ sudo yum install https://resources.ovirt.org/pub/yum-repo/ovirt-release43.rpm
$ sudo yum install ovirt-engine

Configurare de bază:

$ sudo engine-setup

În cele mai multe cazuri, setările implicite sunt suficiente; pentru a le utiliza automat, puteți rula configurația cu cheia:

$ sudo engine-setup --accept-defaults

Acum ne putem conecta la noul nostru motor la ovirt.lab.example.com. Este încă gol aici, așa că să trecem la instalarea hipervizoarelor.

Se instalează ovirt-host

Instalăm CentOS 7 într-o configurație minimă pe o gazdă fizică, apoi conectăm depozitul, actualizăm și repornim sistemul:

$ sudo yum install https://resources.ovirt.org/pub/yum-repo/ovirt-release43.rpm
$ sudo yum update -y && sudo reboot

Notă: Este convenabil să utilizați instrumente de automatizare a implementării sau instalarea kickstart pentru instalare.

Exemplu de fișier kickstart
Atenție! Partițiile existente sunt șterse automat! Fii atent!

# System authorization information
auth --enableshadow --passalgo=sha512
# Use CDROM installation media
cdrom
# Use graphical install
graphical
# Run the Setup Agent on first boot
firstboot --enable
ignoredisk --only-use=sda
# Keyboard layouts
keyboard --vckeymap=us --xlayouts='us','ru' --switch='grp:alt_shift_toggle'
# System language
lang ru_RU.UTF-8

# Network information
network  --bootproto=dhcp --device=ens192 --ipv6=auto --activate
network  --hostname=kvm01.lab.example.com

# Root password 'monteV1DE0'
rootpw --iscrypted $6$6oPcf0GW9VdmJe5w$6WBucrUPRdCAP.aBVnUfvaEu9ozkXq9M1TXiwOm41Y58DEerG8b3Ulme2YtxAgNHr6DGIJ02eFgVuEmYsOo7./
# User password 'metroP0!is'
user --name=mgmt --groups=wheel --iscrypted --password=$6$883g2lyXdkDLbKYR$B3yWx1aQZmYYi.aO10W2Bvw0Jpkl1upzgjhZr6lmITTrGaPupa5iC3kZAOvwDonZ/6ogNJe/59GN5U8Okp.qx.
# System services
services --enabled="chronyd"
# System timezone
timezone Europe/Moscow --isUtc
# System bootloader configuration
bootloader --append=" crashkernel=auto" --location=mbr --boot-drive=sda
# Partition clearing information
clearpart --all
# Disk partitioning information
part /boot --fstype xfs --size=1024 --ondisk=sda  --label=boot
part pv.01 --size=45056 --grow
volgroup HostVG pv.01 --reserved-percent=20
logvol swap --vgname=HostVG --name=lv_swap --fstype=swap --recommended
logvol none --vgname=HostVG --name=HostPool --thinpool --size=40960 --grow
logvol / --vgname=HostVG --name=lv_root --thin --fstype=ext4 --label="root" --poolname=HostPool --fsoptions="defaults,discard" --size=6144 --grow
logvol /var --vgname=HostVG --name=lv_var --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=16536
logvol /var/crash --vgname=HostVG --name=lv_var_crash --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=10240
logvol /var/log --vgname=HostVG --name=lv_var_log --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=8192
logvol /var/log/audit --vgname=HostVG --name=lv_var_audit --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=2048
logvol /home --vgname=HostVG --name=lv_home --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1024
logvol /tmp --vgname=HostVG --name=lv_tmp --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1024

%packages
@^minimal
@core
chrony
kexec-tools

%end

%addon com_redhat_kdump --enable --reserve-mb='auto'

%end

%anaconda
pwpolicy root --minlen=6 --minquality=1 --notstrict --nochanges --notempty
pwpolicy user --minlen=6 --minquality=1 --notstrict --nochanges --emptyok
pwpolicy luks --minlen=6 --minquality=1 --notstrict --nochanges --notempty
%end
# Reboot when the install is finished.
reboot --eject

Salvați acest fișier, de ex. ftp.example.com/pub/labkvm.cfg. Pentru a utiliza scriptul la pornirea instalării sistemului de operare, selectați „Instalare CentOS 7”, activați modul de editare a parametrilor (tasta Tab) și adăugați la sfârșit (cu un spațiu, fără ghilimele)

' inst.ks=ftp://ftp.example.com/pub/labkvm.cfg'

.
Scriptul de instalare șterge partițiile existente pe /dev/sda, creează altele noi recomandările dezvoltatorilor (este convenabil să le vizualizați după instalare folosind comanda lsblk). Numele gazdei este setat ca kvm01.lab.example.com (după instalare, îl puteți schimba cu comanda hostnamectl set-hostname kvm03.lab.example.com), adresa IP este obținută automat, fusul orar este Moscova, S-a adăugat suport pentru limba rusă.

Parola utilizator root: monteV1DE0, parola utilizator administrare: metroP0!is.
Atenţie! Partițiile existente sunt șterse automat! Atenție!

Repetăm ​​(sau executăm în paralel) pe toate gazdele. De la pornirea unui server „gol” la o stare gata, luând în considerare 2 descărcări lungi, durează aproximativ 20 de minute.

Adăugarea unui nod la oVirt

E foarte simplu:

Calculează → Gazde → Nou →...

Câmpurile obligatorii din expert sunt Nume (nume afișat, de exemplu, kvm03), Nume gazdă (FQDN, de exemplu, kvm03.lab.example.com) și secțiunea Autentificare - utilizator root (imuabil) — parola sau cheia publică SSH.

După apăsarea butonului Ok Veți primi un mesaj „Nu ați configurat Power Management pentru această gazdă. Esti sigur ca vrei sa continui?". Acest lucru este normal - ne vom uita la gestionarea energiei mai târziu, după ce gazda a fost conectată cu succes. Totuși, dacă mașinile pe care sunt instalate gazdele nu acceptă management (IPMI, iLO, DRAC etc.), recomand dezactivarea acestuia: Compute → Clusters → Default → Edit → Fencing Ploicy → Enable fencing, debifați caseta.

Dacă depozitul oVirt nu a fost conectat la gazdă, instalarea va eșua, dar este în regulă - trebuie să îl adăugați, apoi faceți clic pe Instalare -> Reinstalare.

Conectarea gazdei nu durează mai mult de 5-10 minute.

Configurarea interfeței de rețea

Deoarece construim un sistem tolerant la erori, conexiunea la rețea trebuie să ofere și o conexiune redundantă, care se face în fila Calculare → Gazde → HOST → Interfețe de rețea - Configurați rețele gazdă.

În funcție de capacitățile echipamentului de rețea și de abordările arhitecturale, sunt posibile opțiuni. Cel mai bine este să vă conectați la o stivă de switch-uri de top-of-rack, astfel încât, dacă unul nu reușește, disponibilitatea rețelei să nu fie întreruptă. Să ne uităm la exemplul unui canal LACP agregat. Pentru a configura un canal agregat, „luați” al 2-lea adaptor nefolosit cu mouse-ul și „du-l” la primul. Se va deschide o fereastră Creați o nouă obligație, unde LACP (Mod 4, Dynamic link aggregation, 802.3ad) este selectat implicit. Pe partea de comutare, se realizează configurația obișnuită a grupului LACP. Dacă nu este posibil să construiți o stivă de comutatoare, puteți utiliza modul Active-Backup (Modul 1). Ne vom uita la setările VLAN în articolul următor și vom intra în mai multe detalii cu recomandări pentru configurarea unei rețele în document Ghid de planificare și cerințe preliminare.

Configurare FC

Fibre Channel (FC) este acceptat din cutie și este ușor de utilizat. Nu vom configura o rețea de stocare, inclusiv configurarea sistemelor de stocare și a comutatoarelor de țesătură de zonare ca parte a instalării oVirt.

Configurarea FCoE

FCoE, după părerea mea, nu s-a răspândit în rețelele de stocare, dar este adesea folosit pe servere ca „ultima milă”, de exemplu, în HPE Virtual Connect.

Configurarea FCoE necesită pași simpli suplimentari.

Configurați motorul FCoE

Articol pe site-ul Red Hat B.3. Cum se configurează Red Hat Virtualization Manager pentru a utiliza FCoE
Pe Manager
, cu următoarea comandă adăugăm cheia la manager și o repornim:


$ sudo engine-config -s UserDefinedNetworkCustomProperties='fcoe=^((enable|dcb|auto_vlan)=(yes|no),?)*$'
$ sudo systemctl restart ovirt-engine.service

Configurați nodul FCoE

Pe oVirt-Hosts trebuie să instalați

$ sudo yum install vdsm-hook-fcoe

Urmează configurarea obișnuită FCoE, articol despre Red Hat: 25.5. Configurarea unei interfețe Fibre Channel prin Ethernet.

Pentru Broadcom CNA, căutați suplimentar Ghidul utilizatorului Configurare FCoE pentru adaptoarele bazate pe Broadcom.

Asigurați-vă că pachetele sunt instalate (deja în minim):

$ sudo yum install fcoe-utils lldpad

Urmează configurarea în sine (în loc de ens3f2 și ens3f3 înlocuim numele CNA-urilor incluse în rețeaua de stocare):

$ sudo cp /etc/fcoe/cfg-ethx /etc/fcoe/cfg-ens3f2
$ sudo cp /etc/fcoe/cfg-ethx /etc/fcoe/cfg-ens3f3
$ sudo vim /etc/fcoe/cfg-ens3f2
$ sudo vim /etc/fcoe/cfg-ens3f3

Este important: Dacă interfața de rețea acceptă DCB/DCBX în hardware, parametrul DCB_REQUIRED trebuie setat la nr.

DCB_REQUIRED=„da” → #DCB_REQUIRED=„da”

Apoi, ar trebui să vă asigurați că adminStatus este dezactivat pe toate interfețele, inclusiv. fără FCoE activat:

$ sudo lldptool set-lldp -i ens3f0 adminStatus=disabled
...
$ sudo lldptool set-lldp -i ens3f3 adminStatus=disabled

Dacă există alte interfețe de rețea, puteți activa LLDP:

$ sudo systemctl start lldpad
$ sudo systemctl enable lldpad

După cum sa menționat mai devreme, dacă se utilizează hardware DCB/DCBX, setarea DCB_REQUIRED trebuie să fie activată în Nu. iar acest pas poate fi omis.

$ sudo dcbtool sc ens3f2 dcb on
$ sudo dcbtool sc ens3f3 dcb on
$ sudo dcbtool sc ens3f2 app:fcoe e:1
$ sudo dcbtool sc ens3f3 app:fcoe e:1
$ sudo ip link set dev ens3f2 up
$ sudo ip link set dev ens3f3 up
$ sudo systemctl start fcoe
$ sudo systemctl enable fcoe

Pentru interfețele de rețea, verificați dacă pornirea automată este activată:

$ sudo vim /etc/sysconfig/network-scripts/ifcfg-ens3f2
$ sudo vim /etc/sysconfig/network-scripts/ifcfg-ens3f3

ONBOOT=yes

Vizualizați interfețele FCoE configurate, ieșirea comenzii nu trebuie să fie goală.

$ sudo fcoeadm -i

Configurarea ulterioară a FCoE este efectuată ca pentru FC obișnuit.

Urmează configurarea sistemelor și rețelelor de stocare - zoning, SAN hosts, crearea și prezentarea volumelor/LUN-urilor, după care stocarea poate fi conectată la ovirt-hosts: Storage → Domains → New Domain.

Lăsați funcția de domeniu ca date, tipul de stocare ca canal de fibre, gazdă ca oricare, denumește ca, de exemplu, storNN-volMM.

Cu siguranță sistemul dvs. de stocare permite conectarea nu doar pentru rezervarea căilor, ci și pentru echilibrare. Multe sisteme moderne sunt capabile să transmită date de-a lungul tuturor căilor în mod egal optim (ALUA activ/activ).

Pentru a activa toate căile în starea activă, trebuie să configurați multipasing, mai multe despre aceasta în articolele următoare.

Configurarea NFS și iSCSI se face într-un mod similar.

Stocare de imagini ISO

Pentru a instala sistemul de operare, veți avea nevoie de fișierele de instalare ale acestora, cel mai adesea disponibile sub formă de imagini ISO. Puteți utiliza calea încorporată, dar pentru a lucra cu imagini în oVirt, a fost dezvoltat un tip special de stocare - ISO, care poate fi orientat către un server NFS. Adaugă-l:

Stocare → Domenii → Domeniu nou,
Funcție de domeniu → ISO,
Cale de export - de exemplu, mynfs01.example.com:/exports/ovirt-iso (la momentul conexiunii, folderul trebuie să fie gol, managerul trebuie să poată scrie în el),
Nume - de exemplu, mynfs01-iso.

Managerul va crea o structură pentru stocarea imaginilor
/exports/ovirt-iso/<some UUID>/images/11111111-1111-1111-1111-111111111111/

Dacă există deja imagini ISO pe serverul nostru NFS, pentru a economisi spațiu este convenabil să le legați la acest folder în loc să copiați fișierele.

Primul VM

În această etapă, puteți crea deja prima mașină virtuală, puteți instala sistemul de operare și aplicația software pe ea.

Calculează → Mașini virtuale → Nou

Pentru noua mașină, specificați un nume (Nume), creați un disc (Imagini de instanță → Creare) și conectați o interfață de rețea (Instanțați interfețele de rețea VM prin alegerea unui profil vNIC → selectați singurul ovirtmgmt din listă deocamdată).

Pe partea de client aveți nevoie de un browser modern și Client SPICE pentru a interacționa cu consola.

Prima mașină a fost lansată cu succes. Cu toate acestea, pentru o funcționare mai completă a sistemului, sunt necesare o serie de setări suplimentare, pe care le vom continua în articolele următoare.

Sursa: www.habr.com

Adauga un comentariu