Deci, să luăm în considerare problemele instalării inițiale a componentelor ovirt-engine și ovirt-host.
Procese de instalare mai detaliate pot fi întotdeauna găsite în documentație.
Pentru Engine, cerințele minime sunt 2 nuclee/4 GiB RAM/25 GiB stocare. Recomandat - de la 4 nuclee/16 GiB de RAM/50 GiB de stocare. Folosim opțiunea Standalone Manager, atunci când motorul rulează pe o mașină fizică sau virtuală dedicată în afara unui cluster gestionat. Pentru instalarea noastră, vom lua o mașină virtuală, de exemplu, pe un ESXi* autonom. Este convenabil să utilizați instrumente de automatizare a implementării sau clonarea dintr-un șablon pregătit anterior sau o instalare kickstart.
*Notă: Pentru un sistem de producție, aceasta este o idee proastă deoarece... managerul lucrează fără rezervă și devine un blocaj. În acest caz, este mai bine să luați în considerare opțiunea Motor auto-găzduit.
Dacă este necesar, procedura de conversie Standalone în Self Hosted este descrisă în detaliu în documentație. În special, gazda trebuie să primească comanda de reinstalare cu suport Hosted Engine.
Instalăm CentOS 7 pe VM într-o configurație minimă, apoi actualizăm și repornim sistemul:
$ sudo yum update -y && sudo reboot
Este util să instalați un agent invitat pentru o mașină virtuală:
Notă: Este convenabil să utilizați instrumente de automatizare a implementării sau instalarea kickstart pentru instalare.
Exemplu de fișier kickstart
Atenție! Partițiile existente sunt șterse automat! Fii atent!
# System authorization information
auth --enableshadow --passalgo=sha512
# Use CDROM installation media
cdrom
# Use graphical install
graphical
# Run the Setup Agent on first boot
firstboot --enable
ignoredisk --only-use=sda
# Keyboard layouts
keyboard --vckeymap=us --xlayouts='us','ru' --switch='grp:alt_shift_toggle'
# System language
lang ru_RU.UTF-8
# Network information
network --bootproto=dhcp --device=ens192 --ipv6=auto --activate
network --hostname=kvm01.lab.example.com
# Root password 'monteV1DE0'
rootpw --iscrypted $6$6oPcf0GW9VdmJe5w$6WBucrUPRdCAP.aBVnUfvaEu9ozkXq9M1TXiwOm41Y58DEerG8b3Ulme2YtxAgNHr6DGIJ02eFgVuEmYsOo7./
# User password 'metroP0!is'
user --name=mgmt --groups=wheel --iscrypted --password=$6$883g2lyXdkDLbKYR$B3yWx1aQZmYYi.aO10W2Bvw0Jpkl1upzgjhZr6lmITTrGaPupa5iC3kZAOvwDonZ/6ogNJe/59GN5U8Okp.qx.
# System services
services --enabled="chronyd"
# System timezone
timezone Europe/Moscow --isUtc
# System bootloader configuration
bootloader --append=" crashkernel=auto" --location=mbr --boot-drive=sda
# Partition clearing information
clearpart --all
# Disk partitioning information
part /boot --fstype xfs --size=1024 --ondisk=sda --label=boot
part pv.01 --size=45056 --grow
volgroup HostVG pv.01 --reserved-percent=20
logvol swap --vgname=HostVG --name=lv_swap --fstype=swap --recommended
logvol none --vgname=HostVG --name=HostPool --thinpool --size=40960 --grow
logvol / --vgname=HostVG --name=lv_root --thin --fstype=ext4 --label="root" --poolname=HostPool --fsoptions="defaults,discard" --size=6144 --grow
logvol /var --vgname=HostVG --name=lv_var --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=16536
logvol /var/crash --vgname=HostVG --name=lv_var_crash --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=10240
logvol /var/log --vgname=HostVG --name=lv_var_log --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=8192
logvol /var/log/audit --vgname=HostVG --name=lv_var_audit --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=2048
logvol /home --vgname=HostVG --name=lv_home --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1024
logvol /tmp --vgname=HostVG --name=lv_tmp --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1024
%packages
@^minimal
@core
chrony
kexec-tools
%end
%addon com_redhat_kdump --enable --reserve-mb='auto'
%end
%anaconda
pwpolicy root --minlen=6 --minquality=1 --notstrict --nochanges --notempty
pwpolicy user --minlen=6 --minquality=1 --notstrict --nochanges --emptyok
pwpolicy luks --minlen=6 --minquality=1 --notstrict --nochanges --notempty
%end
# Reboot when the install is finished.
reboot --eject
Salvați acest fișier, de ex. ftp.example.com/pub/labkvm.cfg. Pentru a utiliza scriptul la pornirea instalării sistemului de operare, selectați „Instalare CentOS 7”, activați modul de editare a parametrilor (tasta Tab) și adăugați la sfârșit (cu un spațiu, fără ghilimele)
' inst.ks=ftp://ftp.example.com/pub/labkvm.cfg'
.
Scriptul de instalare șterge partițiile existente pe /dev/sda, creează altele noi recomandările dezvoltatorilor (este convenabil să le vizualizați după instalare folosind comanda lsblk). Numele gazdei este setat ca kvm01.lab.example.com (după instalare, îl puteți schimba cu comanda hostnamectl set-hostname kvm03.lab.example.com), adresa IP este obținută automat, fusul orar este Moscova, S-a adăugat suport pentru limba rusă.
Parola utilizator root: monteV1DE0, parola utilizator administrare: metroP0!is. Atenţie! Partițiile existente sunt șterse automat! Atenție!
Repetăm (sau executăm în paralel) pe toate gazdele. De la pornirea unui server „gol” la o stare gata, luând în considerare 2 descărcări lungi, durează aproximativ 20 de minute.
Adăugarea unui nod la oVirt
E foarte simplu:
Calculează → Gazde → Nou →...
Câmpurile obligatorii din expert sunt Nume (nume afișat, de exemplu, kvm03), Nume gazdă (FQDN, de exemplu, kvm03.lab.example.com) și secțiunea Autentificare - utilizator root (imuabil) — parola sau cheia publică SSH.
După apăsarea butonului Ok Veți primi un mesaj „Nu ați configurat Power Management pentru această gazdă. Esti sigur ca vrei sa continui?". Acest lucru este normal - ne vom uita la gestionarea energiei mai târziu, după ce gazda a fost conectată cu succes. Totuși, dacă mașinile pe care sunt instalate gazdele nu acceptă management (IPMI, iLO, DRAC etc.), recomand dezactivarea acestuia: Compute → Clusters → Default → Edit → Fencing Ploicy → Enable fencing, debifați caseta.
Dacă depozitul oVirt nu a fost conectat la gazdă, instalarea va eșua, dar este în regulă - trebuie să îl adăugați, apoi faceți clic pe Instalare -> Reinstalare.
Conectarea gazdei nu durează mai mult de 5-10 minute.
Configurarea interfeței de rețea
Deoarece construim un sistem tolerant la erori, conexiunea la rețea trebuie să ofere și o conexiune redundantă, care se face în fila Calculare → Gazde → HOST → Interfețe de rețea - Configurați rețele gazdă.
În funcție de capacitățile echipamentului de rețea și de abordările arhitecturale, sunt posibile opțiuni. Cel mai bine este să vă conectați la o stivă de switch-uri de top-of-rack, astfel încât, dacă unul nu reușește, disponibilitatea rețelei să nu fie întreruptă. Să ne uităm la exemplul unui canal LACP agregat. Pentru a configura un canal agregat, „luați” al 2-lea adaptor nefolosit cu mouse-ul și „du-l” la primul. Se va deschide o fereastră Creați o nouă obligație, unde LACP (Mod 4, Dynamic link aggregation, 802.3ad) este selectat implicit. Pe partea de comutare, se realizează configurația obișnuită a grupului LACP. Dacă nu este posibil să construiți o stivă de comutatoare, puteți utiliza modul Active-Backup (Modul 1). Ne vom uita la setările VLAN în articolul următor și vom intra în mai multe detalii cu recomandări pentru configurarea unei rețele în document Ghid de planificare și cerințe preliminare.
Configurare FC
Fibre Channel (FC) este acceptat din cutie și este ușor de utilizat. Nu vom configura o rețea de stocare, inclusiv configurarea sistemelor de stocare și a comutatoarelor de țesătură de zonare ca parte a instalării oVirt.
Configurarea FCoE
FCoE, după părerea mea, nu s-a răspândit în rețelele de stocare, dar este adesea folosit pe servere ca „ultima milă”, de exemplu, în HPE Virtual Connect.
După cum sa menționat mai devreme, dacă se utilizează hardware DCB/DCBX, setarea DCB_REQUIRED trebuie să fie activată în Nu. iar acest pas poate fi omis.
$ sudo dcbtool sc ens3f2 dcb on
$ sudo dcbtool sc ens3f3 dcb on
$ sudo dcbtool sc ens3f2 app:fcoe e:1
$ sudo dcbtool sc ens3f3 app:fcoe e:1
$ sudo ip link set dev ens3f2 up
$ sudo ip link set dev ens3f3 up
$ sudo systemctl start fcoe
$ sudo systemctl enable fcoe
Pentru interfețele de rețea, verificați dacă pornirea automată este activată:
$ sudo vim /etc/sysconfig/network-scripts/ifcfg-ens3f2
$ sudo vim /etc/sysconfig/network-scripts/ifcfg-ens3f3
ONBOOT=yes
Vizualizați interfețele FCoE configurate, ieșirea comenzii nu trebuie să fie goală.
$ sudo fcoeadm -i
Configurarea ulterioară a FCoE este efectuată ca pentru FC obișnuit.
Urmează configurarea sistemelor și rețelelor de stocare - zoning, SAN hosts, crearea și prezentarea volumelor/LUN-urilor, după care stocarea poate fi conectată la ovirt-hosts: Storage → Domains → New Domain.
Lăsați funcția de domeniu ca date, tipul de stocare ca canal de fibre, gazdă ca oricare, denumește ca, de exemplu, storNN-volMM.
Cu siguranță sistemul dvs. de stocare permite conectarea nu doar pentru rezervarea căilor, ci și pentru echilibrare. Multe sisteme moderne sunt capabile să transmită date de-a lungul tuturor căilor în mod egal optim (ALUA activ/activ).
Pentru a activa toate căile în starea activă, trebuie să configurați multipasing, mai multe despre aceasta în articolele următoare.
Configurarea NFS și iSCSI se face într-un mod similar.
Stocare de imagini ISO
Pentru a instala sistemul de operare, veți avea nevoie de fișierele de instalare ale acestora, cel mai adesea disponibile sub formă de imagini ISO. Puteți utiliza calea încorporată, dar pentru a lucra cu imagini în oVirt, a fost dezvoltat un tip special de stocare - ISO, care poate fi orientat către un server NFS. Adaugă-l:
Stocare → Domenii → Domeniu nou,
Funcție de domeniu → ISO,
Cale de export - de exemplu, mynfs01.example.com:/exports/ovirt-iso (la momentul conexiunii, folderul trebuie să fie gol, managerul trebuie să poată scrie în el),
Nume - de exemplu, mynfs01-iso.
Managerul va crea o structură pentru stocarea imaginilor
/exports/ovirt-iso/<some UUID>/images/11111111-1111-1111-1111-111111111111/
Dacă există deja imagini ISO pe serverul nostru NFS, pentru a economisi spațiu este convenabil să le legați la acest folder în loc să copiați fișierele.
Primul VM
În această etapă, puteți crea deja prima mașină virtuală, puteți instala sistemul de operare și aplicația software pe ea.
Calculează → Mașini virtuale → Nou
Pentru noua mașină, specificați un nume (Nume), creați un disc (Imagini de instanță → Creare) și conectați o interfață de rețea (Instanțați interfețele de rețea VM prin alegerea unui profil vNIC → selectați singurul ovirtmgmt din listă deocamdată).
Pe partea de client aveți nevoie de un browser modern și Client SPICE pentru a interacționa cu consola.
Prima mașină a fost lansată cu succes. Cu toate acestea, pentru o funcționare mai completă a sistemului, sunt necesare o serie de setări suplimentare, pe care le vom continua în articolele următoare.