oVirt over 2 uur. Deel 2. De manager en hosts installeren

Dit artikel is het volgende in de serie over oVirt, het begin hier.

Artikelen

  1. Introductie
  2. Een manager (ovirt-engine) en hypervisors (hosts) installeren - We zijn er
  3. Aanvullende instellingen

Laten we dus eens kijken naar de problemen van de initiële installatie van de ovirt-engine en ovirt-host componenten.

Meer gedetailleerde installatieprocessen zijn altijd te vinden in documentatie.

Inhoud

  1. Ovirt-engine installeren
  2. Ovirt-host installeren
  3. Een knooppunt toevoegen aan oVirtN
  4. De netwerkinterface instellen
  5. FC-opstelling
  6. FCoE instellen
  7. ISO-beeldopslag
  8. Eerste VM

Ovirt-engine installeren

Voor Engine zijn de minimumvereisten 2 cores/4 GiB RAM/25 GiB opslag. Aanbevolen - vanaf 4 cores/16 GiB RAM/50 GiB opslag. We gebruiken de Standalone Manager-optie wanneer de engine op een speciale fysieke of virtuele machine buiten een beheerd cluster draait. Voor onze installatie gebruiken we bijvoorbeeld een virtuele machine op een standalone ESXi*. Het is handig om implementatie-automatiseringstools te gebruiken of te klonen vanaf een eerder voorbereide sjabloon of kickstart-installatie.

*Let op: Voor een productiesysteem is dit een slecht idee omdat... de manager werkt zonder voorbehoud en wordt een knelpunt. In dit geval is het beter om de optie Self-hosted Engine te overwegen.

Indien nodig wordt de procedure voor het converteren van Standalone naar Self Hosted gedetailleerd beschreven in documentatie. In het bijzonder moet de host de opdracht Opnieuw installeren krijgen met ondersteuning voor Hosted Engine.

We installeren CentOS 7 op de VM in een minimale configuratie, updaten en herstarten vervolgens het systeem:

$ sudo yum update -y && sudo reboot

Het is handig om een ​​gastagent voor een virtuele machine te installeren:

$ sudo yum install open-vm-tools

voor VMware ESXi-hosts, of voor oVirt:

$ sudo yum install ovirt-guest-agent

Verbind de repository en installeer de manager:

$ sudo yum install https://resources.ovirt.org/pub/yum-repo/ovirt-release43.rpm
$ sudo yum install ovirt-engine

Basisopstelling:

$ sudo engine-setup

In de meeste gevallen zijn de standaardinstellingen voldoende; om ze automatisch te gebruiken, kunt u de configuratie uitvoeren met de sleutel:

$ sudo engine-setup --accept-defaults

Nu kunnen we verbinding maken met onze nieuwe motor op ovirt.lab.voorbeeld.com. Het is hier nog leeg, dus laten we verder gaan met het installeren van hypervisors.

Ovirt-host installeren

We installeren CentOS 7 in een minimale configuratie op een fysieke host, verbinden vervolgens de repository, updaten en herstarten het systeem:

$ sudo yum install https://resources.ovirt.org/pub/yum-repo/ovirt-release43.rpm
$ sudo yum update -y && sudo reboot

Opmerking: Het is handig om implementatie-automatiseringstools of een kickstart-installatie te gebruiken voor de installatie.

Voorbeeld kickstart-bestand
Waarschuwing! Bestaande partities worden automatisch verwijderd! Wees voorzichtig!

# System authorization information
auth --enableshadow --passalgo=sha512
# Use CDROM installation media
cdrom
# Use graphical install
graphical
# Run the Setup Agent on first boot
firstboot --enable
ignoredisk --only-use=sda
# Keyboard layouts
keyboard --vckeymap=us --xlayouts='us','ru' --switch='grp:alt_shift_toggle'
# System language
lang ru_RU.UTF-8

# Network information
network  --bootproto=dhcp --device=ens192 --ipv6=auto --activate
network  --hostname=kvm01.lab.example.com

# Root password 'monteV1DE0'
rootpw --iscrypted $6$6oPcf0GW9VdmJe5w$6WBucrUPRdCAP.aBVnUfvaEu9ozkXq9M1TXiwOm41Y58DEerG8b3Ulme2YtxAgNHr6DGIJ02eFgVuEmYsOo7./
# User password 'metroP0!is'
user --name=mgmt --groups=wheel --iscrypted --password=$6$883g2lyXdkDLbKYR$B3yWx1aQZmYYi.aO10W2Bvw0Jpkl1upzgjhZr6lmITTrGaPupa5iC3kZAOvwDonZ/6ogNJe/59GN5U8Okp.qx.
# System services
services --enabled="chronyd"
# System timezone
timezone Europe/Moscow --isUtc
# System bootloader configuration
bootloader --append=" crashkernel=auto" --location=mbr --boot-drive=sda
# Partition clearing information
clearpart --all
# Disk partitioning information
part /boot --fstype xfs --size=1024 --ondisk=sda  --label=boot
part pv.01 --size=45056 --grow
volgroup HostVG pv.01 --reserved-percent=20
logvol swap --vgname=HostVG --name=lv_swap --fstype=swap --recommended
logvol none --vgname=HostVG --name=HostPool --thinpool --size=40960 --grow
logvol / --vgname=HostVG --name=lv_root --thin --fstype=ext4 --label="root" --poolname=HostPool --fsoptions="defaults,discard" --size=6144 --grow
logvol /var --vgname=HostVG --name=lv_var --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=16536
logvol /var/crash --vgname=HostVG --name=lv_var_crash --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=10240
logvol /var/log --vgname=HostVG --name=lv_var_log --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=8192
logvol /var/log/audit --vgname=HostVG --name=lv_var_audit --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=2048
logvol /home --vgname=HostVG --name=lv_home --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1024
logvol /tmp --vgname=HostVG --name=lv_tmp --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1024

%packages
@^minimal
@core
chrony
kexec-tools

%end

%addon com_redhat_kdump --enable --reserve-mb='auto'

%end

%anaconda
pwpolicy root --minlen=6 --minquality=1 --notstrict --nochanges --notempty
pwpolicy user --minlen=6 --minquality=1 --notstrict --nochanges --emptyok
pwpolicy luks --minlen=6 --minquality=1 --notstrict --nochanges --notempty
%end
# Reboot when the install is finished.
reboot --eject

Bewaar dit bestand, b.v. ftp.voorbeeld.com/pub/labkvm.cfg. Om het script te gebruiken bij het starten van de OS-installatie, selecteert u 'Install CentOS 7', schakelt u de parameterbewerkingsmodus in (Tab-toets) en voegt u aan het einde toe (met een spatie, zonder aanhalingstekens)

' inst.ks=ftp://ftp.example.com/pub/labkvm.cfg'

.
Het installatiescript verwijdert bestaande partities op /dev/sda en maakt nieuwe aan aanbevelingen van ontwikkelaars (het is handig om ze na de installatie te bekijken met de opdracht lsblk). De hostnaam is ingesteld als kvm01.lab.example.com (na installatie kunt u deze wijzigen met het commando hostnamectl set-hostname kvm03.lab.example.com), het IP-adres wordt automatisch verkregen, de tijdzone is Moskou, Ondersteuning voor de Russische taal is toegevoegd.

Rootgebruikerswachtwoord: monteV1DE0, mgmt-gebruikerswachtwoord: metroP0!is.
Aandacht! Bestaande partities worden automatisch verwijderd! Wees voorzichtig!

We herhalen (of voeren parallel uit) op alle hosts. Van het aanzetten van een “lege” server naar de gereedheid, rekening houdend met 2 lange downloads, duurt het ongeveer 20 minuten.

Een knooppunt toevoegen aan oVirt

Het is heel simpel:

Berekenen → Hosts → Nieuw →…

De verplichte velden in de wizard zijn Naam (weergavenaam, bijvoorbeeld kvm03), Hostnaam (FQDN, bijvoorbeeld kvm03.lab.example.com) en Authenticatiesectie - rootgebruiker (onveranderlijk) — wachtwoord of openbare SSH-sleutel.

Na het indrukken van de knop Ok U ontvangt een bericht "U heeft energiebeheer niet geconfigureerd voor deze host. Weet je zeker dat je door wilt gaan?". Dit is normaal - we zullen later naar het energiebeheer kijken, nadat de host succesvol is verbonden. Als de machines waarop de hosts zijn geïnstalleerd echter geen beheer ondersteunen (IPMI, iLO, DRAC, enz.), raad ik aan dit uit te schakelen: Berekenen → Clusters → Standaard → Bewerken → Schermen Ploicy → Schermen inschakelen, schakel het selectievakje uit.

Als de oVirt-repository niet met de host was verbonden, zal de installatie mislukken, maar dat is geen probleem - u moet deze toevoegen en vervolgens op Installeren -> Opnieuw installeren klikken.

Het verbinden van de host duurt niet langer dan 5-10 minuten.

De netwerkinterface instellen

Omdat we een fouttolerant systeem bouwen, moet de netwerkverbinding ook een redundante verbinding bieden, wat gebeurt op het tabblad Berekenen → Hosts → HOST → Netwerkinterfaces - Hostnetwerken instellen.

Afhankelijk van de mogelijkheden van uw netwerkapparatuur en architectonische benaderingen zijn er opties mogelijk. Het is het beste om verbinding te maken met een stapel top-of-rack-switches, zodat als er één uitvalt, de netwerkbeschikbaarheid niet wordt onderbroken. Laten we eens kijken naar het voorbeeld van een geaggregeerd LACP-kanaal. Om een ​​geaggregeerd kanaal te configureren, “neemt” u de 2e ongebruikte adapter met de muis en “neemt” u deze naar de 1e. Er gaat een venster open Creëer een nieuwe band, waarbij LACP (Modus 4, dynamische linkaggregatie, 802.3ad) standaard is geselecteerd. Aan de schakelaarzijde wordt de gebruikelijke LACP-groepsconfiguratie uitgevoerd. Als het niet mogelijk is om een ​​stapel switches te bouwen, kunt u de Active-Backup-modus gebruiken (Modus 1). We zullen de VLAN-instellingen bekijken in het volgende artikel, en we zullen dieper ingaan op aanbevelingen voor het opzetten van een netwerk in het document Handleiding voor planning en vereisten.

FC-opstelling

Fibre Channel (FC) wordt standaard ondersteund en is eenvoudig te gebruiken. We zullen geen opslagnetwerk opzetten, inclusief het opzetten van opslagsystemen en zonering van fabric-switches als onderdeel van het opzetten van oVirt.

FCoE instellen

FCoE is naar mijn mening niet wijdverspreid in opslagnetwerken, maar wordt vaak gebruikt op servers als de “laatste mijl”, bijvoorbeeld in HPE Virtual Connect.

Het opzetten van FCoE vereist aanvullende eenvoudige stappen.

FCoE-engine instellen

Artikel op de Red Hat-website B.3. Hoe Red Hat Virtualization Manager in te stellen om FCoE te gebruiken
Op de Beheerder
, met het volgende commando voegen we de sleutel toe aan de manager en starten we deze opnieuw op:


$ sudo engine-config -s UserDefinedNetworkCustomProperties='fcoe=^((enable|dcb|auto_vlan)=(yes|no),?)*$'
$ sudo systemctl restart ovirt-engine.service

Knooppunt FCoE instellen

Op oVirt-Hosts moet u installeren

$ sudo yum install vdsm-hook-fcoe

Het volgende is de gebruikelijke FCoE-installatie, artikel over Red Hat: 25.5. Een Fibre Channel over Ethernet-interface configureren.

Kijk ook voor Broadcom CNA Gebruikershandleiding FCoE-configuratie voor op Broadcom gebaseerde adapters.

Zorg ervoor dat de pakketten zijn geïnstalleerd (al in minimaal):

$ sudo yum install fcoe-utils lldpad

Het volgende is de installatie zelf (in plaats van ens3f2 en ens3f3 vervangen we de namen van de CNA's in het opslagnetwerk):

$ sudo cp /etc/fcoe/cfg-ethx /etc/fcoe/cfg-ens3f2
$ sudo cp /etc/fcoe/cfg-ethx /etc/fcoe/cfg-ens3f3
$ sudo vim /etc/fcoe/cfg-ens3f2
$ sudo vim /etc/fcoe/cfg-ens3f3

Het is belangrijk: Als de netwerkinterface DCB/DCBX hardwarematig ondersteunt, moet de parameter DCB_REQUIRED worden ingesteld op nee.

DCB_REQUIRED=“ja” → #DCB_REQUIRED=“ja”

Vervolgens moet u ervoor zorgen dat adminStatus is uitgeschakeld op alle interfaces, incl. zonder FCoE ingeschakeld:

$ sudo lldptool set-lldp -i ens3f0 adminStatus=disabled
...
$ sudo lldptool set-lldp -i ens3f3 adminStatus=disabled

Als er andere netwerkinterfaces zijn, kunt u LLDP inschakelen:

$ sudo systemctl start lldpad
$ sudo systemctl enable lldpad

Zoals eerder vermeld, als hardware DCB/DCBX wordt gebruikt, moet de instelling DCB_REQUIRED worden ingeschakeld geen en deze stap kan worden overgeslagen.

$ sudo dcbtool sc ens3f2 dcb on
$ sudo dcbtool sc ens3f3 dcb on
$ sudo dcbtool sc ens3f2 app:fcoe e:1
$ sudo dcbtool sc ens3f3 app:fcoe e:1
$ sudo ip link set dev ens3f2 up
$ sudo ip link set dev ens3f3 up
$ sudo systemctl start fcoe
$ sudo systemctl enable fcoe

Controleer voor netwerkinterfaces of autostart is ingeschakeld:

$ sudo vim /etc/sysconfig/network-scripts/ifcfg-ens3f2
$ sudo vim /etc/sysconfig/network-scripts/ifcfg-ens3f3

ONBOOT=yes

Bekijk geconfigureerde FCoE-interfaces, de opdrachtuitvoer mag niet leeg zijn.

$ sudo fcoeadm -i

De daaropvolgende configuratie van FCoE wordt uitgevoerd zoals voor gewone FC.

Vervolgens komt de configuratie van opslagsystemen en netwerken - zonering, SAN-hosts, creatie en presentatie van volumes/LUN's, waarna de opslag kan worden verbonden met ovirt-hosts: Opslag → Domeinen → Nieuw domein.

Laat de domeinfunctie staan ​​als gegevens, het opslagtype als Fibre Channel, de host als willekeurig, en de naam als bijvoorbeeld storNN-volMM.

Uw opslagsysteem maakt ongetwijfeld niet alleen verbinding mogelijk voor padreservering, maar ook voor balancering. Veel moderne systemen zijn in staat om gegevens langs alle paden even optimaal te verzenden (ALUA actief/actief).

Om alle paden in de actieve status in te schakelen, moet u multipasing configureren, meer hierover in de volgende artikelen.

Het instellen van NFS en iSCSI gebeurt op een vergelijkbare manier.

ISO-beeldopslag

Om het besturingssysteem te installeren, hebt u hun installatiebestanden nodig, meestal beschikbaar in de vorm van ISO-images. Je kunt het ingebouwde pad gebruiken, maar om met afbeeldingen in oVirt te werken is er een speciaal type opslag ontwikkeld: ISO, dat gericht kan zijn op een NFS-server. Voeg het toe:

Opslag → Domeinen → Nieuw domein,
Domeinfunctie → ISO,
Exportpad - bijvoorbeeld mynfs01.example.com:/exports/ovirt-iso (op het moment van verbinding moet de map leeg zijn, de manager moet ernaar kunnen schrijven),
Naam - bijvoorbeeld mynfs01-iso.

De manager zal een structuur creëren om afbeeldingen op te slaan
/exports/ovirt-iso/<some UUID>/images/11111111-1111-1111-1111-111111111111/

Als er al ISO-images op onze NFS-server staan, is het om ruimte te besparen handig om deze aan deze map te koppelen in plaats van bestanden te kopiëren.

Eerste VM

In dit stadium kunt u al de eerste virtuele machine maken en het besturingssysteem en de applicatiesoftware erop installeren.

Berekenen → Virtuele machines → Nieuw

Geef voor de nieuwe machine een naam op (Naam), maak een schijf (Instance Images → Create) en sluit een netwerkinterface aan (Instantileer VM-netwerkinterfaces door een vNIC-profiel te kiezen → selecteer voorlopig de enige ovirtmgmt uit de lijst).

Aan de clientzijde heb je een moderne browser nodig SPICE-klant om met de console te communiceren.

De eerste machine is met succes gelanceerd. Voor een completere werking van het systeem zijn echter een aantal aanvullende instellingen nodig, die we in de volgende artikelen zullen vervolgen.

Bron: www.habr.com

Voeg een reactie