oVirt in 2 Stunden. Teil 2. Installation des Managers und der Hosts

Dieser Artikel ist der nächste in der Reihe über oVirt, der Anfang hier.

Artikel

  1. Einführung
  2. Installation eines Managers (ovirt-engine) und Hypervisors (Hosts) – Wir sind hier
  3. Weitere Einstellungen

Betrachten wir also die Probleme der Erstinstallation der Komponenten ovirt-engine und ovirt-host.

Detailliertere Installationsprozesse finden Sie immer in Dokumentation.

Inhalt

  1. Ovirt-Engine installieren
  2. ovirt-host installieren
  3. Hinzufügen eines Knotens zu oVirtN
  4. Einrichten der Netzwerkschnittstelle
  5. FC-Setup
  6. FCoE einrichten
  7. ISO-Image-Speicherung
  8. Erste VM

Ovirt-Engine installieren

Für Engine sind die Mindestanforderungen 2 Kerne/4 GiB RAM/25 GiB Speicher. Empfohlen – ab 4 Kernen/16 GiB RAM/50 GiB Speicher. Wir verwenden die Option „Standalone Manager“, wenn die Engine auf einer dedizierten physischen oder virtuellen Maschine außerhalb eines verwalteten Clusters läuft. Für unsere Installation nehmen wir beispielsweise eine virtuelle Maschine auf einem Standalone-ESXi*. Es ist praktisch, Tools zur Bereitstellungsautomatisierung zu verwenden oder eine zuvor vorbereitete Vorlage zu klonen oder die Installation per Kickstart zu starten.

*Hinweis: Für ein Produktionssystem ist dies eine schlechte Idee, weil... Der Manager arbeitet rückhaltlos und wird zum Flaschenhals. In diesem Fall ist es besser, die Option „Self-hosted Engine“ in Betracht zu ziehen.

Bei Bedarf wird die Vorgehensweise zur Umstellung von Standalone auf Self Hosted ausführlich beschrieben Dokumentation. Insbesondere muss dem Host der Befehl zur Neuinstallation mit Hosted Engine-Unterstützung erteilt werden.

Wir installieren CentOS 7 in einer Minimalkonfiguration auf der VM, aktualisieren dann das System und starten es neu:

$ sudo yum update -y && sudo reboot

Es ist sinnvoll, einen Gastagenten für eine virtuelle Maschine zu installieren:

$ sudo yum install open-vm-tools

für VMware ESXi-Hosts oder für oVirt:

$ sudo yum install ovirt-guest-agent

Verbinden Sie das Repository und installieren Sie den Manager:

$ sudo yum install https://resources.ovirt.org/pub/yum-repo/ovirt-release43.rpm
$ sudo yum install ovirt-engine

Grundeinstellung:

$ sudo engine-setup

In den meisten Fällen reichen die Standardeinstellungen aus; um diese automatisch zu verwenden, können Sie die Konfiguration mit der Taste ausführen:

$ sudo engine-setup --accept-defaults

Jetzt können wir uns mit unserer neuen Engine verbinden ovirt.lab.example.com. Hier ist es noch leer, also fahren wir mit der Installation von Hypervisoren fort.

ovirt-host installieren

Wir installieren CentOS 7 in einer Minimalkonfiguration auf einem physischen Host, verbinden dann das Repository, aktualisieren und starten das System neu:

$ sudo yum install https://resources.ovirt.org/pub/yum-repo/ovirt-release43.rpm
$ sudo yum update -y && sudo reboot

Hinweis: Für die Installation ist es praktisch, Bereitstellungsautomatisierungstools oder die Kickstart-Installation zu verwenden.

Beispiel-Kickstart-Datei
Achtung! Vorhandene Partitionen werden automatisch gelöscht! Seien Sie vorsichtig!

# System authorization information
auth --enableshadow --passalgo=sha512
# Use CDROM installation media
cdrom
# Use graphical install
graphical
# Run the Setup Agent on first boot
firstboot --enable
ignoredisk --only-use=sda
# Keyboard layouts
keyboard --vckeymap=us --xlayouts='us','ru' --switch='grp:alt_shift_toggle'
# System language
lang ru_RU.UTF-8

# Network information
network  --bootproto=dhcp --device=ens192 --ipv6=auto --activate
network  --hostname=kvm01.lab.example.com

# Root password 'monteV1DE0'
rootpw --iscrypted $6$6oPcf0GW9VdmJe5w$6WBucrUPRdCAP.aBVnUfvaEu9ozkXq9M1TXiwOm41Y58DEerG8b3Ulme2YtxAgNHr6DGIJ02eFgVuEmYsOo7./
# User password 'metroP0!is'
user --name=mgmt --groups=wheel --iscrypted --password=$6$883g2lyXdkDLbKYR$B3yWx1aQZmYYi.aO10W2Bvw0Jpkl1upzgjhZr6lmITTrGaPupa5iC3kZAOvwDonZ/6ogNJe/59GN5U8Okp.qx.
# System services
services --enabled="chronyd"
# System timezone
timezone Europe/Moscow --isUtc
# System bootloader configuration
bootloader --append=" crashkernel=auto" --location=mbr --boot-drive=sda
# Partition clearing information
clearpart --all
# Disk partitioning information
part /boot --fstype xfs --size=1024 --ondisk=sda  --label=boot
part pv.01 --size=45056 --grow
volgroup HostVG pv.01 --reserved-percent=20
logvol swap --vgname=HostVG --name=lv_swap --fstype=swap --recommended
logvol none --vgname=HostVG --name=HostPool --thinpool --size=40960 --grow
logvol / --vgname=HostVG --name=lv_root --thin --fstype=ext4 --label="root" --poolname=HostPool --fsoptions="defaults,discard" --size=6144 --grow
logvol /var --vgname=HostVG --name=lv_var --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=16536
logvol /var/crash --vgname=HostVG --name=lv_var_crash --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=10240
logvol /var/log --vgname=HostVG --name=lv_var_log --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=8192
logvol /var/log/audit --vgname=HostVG --name=lv_var_audit --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=2048
logvol /home --vgname=HostVG --name=lv_home --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1024
logvol /tmp --vgname=HostVG --name=lv_tmp --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1024

%packages
@^minimal
@core
chrony
kexec-tools

%end

%addon com_redhat_kdump --enable --reserve-mb='auto'

%end

%anaconda
pwpolicy root --minlen=6 --minquality=1 --notstrict --nochanges --notempty
pwpolicy user --minlen=6 --minquality=1 --notstrict --nochanges --emptyok
pwpolicy luks --minlen=6 --minquality=1 --notstrict --nochanges --notempty
%end
# Reboot when the install is finished.
reboot --eject

Speichern Sie diese Datei, z.B. ftp.example.com/pub/labkvm.cfg. Um das Skript beim Starten der Betriebssysteminstallation zu verwenden, wählen Sie „CentOS 7 installieren“, aktivieren Sie den Parameterbearbeitungsmodus (Tab-Taste) und fügen Sie am Ende hinzu (mit einem Leerzeichen, ohne Anführungszeichen).

' inst.ks=ftp://ftp.example.com/pub/labkvm.cfg'

.
Das Installationsskript löscht vorhandene Partitionen auf /dev/sda und erstellt neue Entwicklerempfehlungen (Es ist praktisch, sie nach der Installation mit dem Befehl lsblk anzuzeigen.) Der Hostname ist auf kvm01.lab.example.com eingestellt (nach der Installation können Sie ihn mit dem Befehl hostnamectl set-hostname kvm03.lab.example.com ändern), die IP-Adresse wird automatisch bezogen, die Zeitzone ist Moskau, Unterstützung für die russische Sprache wurde hinzugefügt.

Root-Benutzerpasswort: monteV1DE0, mgmt-Benutzerpasswort: metroP0!is.
Aufmerksamkeit! Vorhandene Partitionen werden automatisch gelöscht! Seid vorsichtig!

Wir wiederholen (oder führen parallel) auf allen Hosts aus. Vom Einschalten eines „leeren“ Servers bis zum Bereitschaftszustand dauert es unter Berücksichtigung von 2 langen Downloads etwa 20 Minuten.

Hinzufügen eines Knotens zu oVirt

Es ist sehr einfach:

Compute → Hosts → Neu →…

Die erforderlichen Felder im Assistenten sind Name (Anzeigename, z. B. kvm03), Hostname (FQDN, z. B. kvm03.lab.example.com) und der Abschnitt „Authentifizierung“. Root-Benutzer (unveränderlich) – Passwort oder öffentlicher SSH-Schlüssel.

Nach dem Drücken der Taste Ok Sie erhalten eine Nachricht „Sie haben die Energieverwaltung für diesen Host nicht konfiguriert. Bist du dir sicher, dass du weitermachen willst?". Das ist normal – wir werden uns später mit der Energieverwaltung befassen, nachdem der Host erfolgreich verbunden wurde. Wenn die Maschinen, auf denen die Hosts installiert sind, jedoch kein Management unterstützen (IPMI, iLO, DRAC usw.), empfehle ich, es zu deaktivieren: Compute → Clusters → Default → Edit → Fencing Ploicy → Enable fencing, deaktivieren Sie das Kontrollkästchen.

Wenn das oVirt-Repository nicht mit dem Host verbunden war, schlägt die Installation fehl, aber das ist in Ordnung – Sie müssen es hinzufügen und dann auf Installieren -> Neu installieren klicken.

Das Anschließen des Hosts dauert nicht länger als 5–10 Minuten.

Einrichten der Netzwerkschnittstelle

Da wir ein fehlertolerantes System aufbauen, muss die Netzwerkverbindung auch eine redundante Verbindung bereitstellen, was im Reiter Compute → Hosts → erfolgt HOST → Netzwerkschnittstellen – Hostnetzwerke einrichten.

Abhängig von den Fähigkeiten Ihrer Netzwerkausrüstung und den architektonischen Ansätzen sind Optionen möglich. Es ist am besten, eine Verbindung zu einem Stapel von Top-of-Rack-Switches herzustellen, damit die Netzwerkverfügbarkeit bei einem Ausfall nicht unterbrochen wird. Schauen wir uns das Beispiel eines aggregierten LACP-Kanals an. Um einen aggregierten Kanal zu konfigurieren, „nehmen“ Sie den zweiten unbenutzten Adapter mit der Maus und „nehmen“ ihn zum ersten. Es öffnet sich ein Fenster Erstellen Sie eine neue Bindung, wobei LACP (Modus 4, Dynamic Link Aggregation, 802.3ad) standardmäßig ausgewählt ist. Auf der Switch-Seite wird die übliche LACP-Gruppenkonfiguration durchgeführt. Wenn es nicht möglich ist, einen Stapel von Switches aufzubauen, können Sie den Active-Backup-Modus (Modus 1) verwenden. Im nächsten Artikel gehen wir auf die VLAN-Einstellungen ein und gehen im Dokument detaillierter auf Empfehlungen zum Einrichten eines Netzwerks ein Leitfaden für Planung und Voraussetzungen.

FC-Setup

Fibre Channel (FC) wird standardmäßig unterstützt und ist einfach zu verwenden. Wir werden kein Speichernetzwerk einrichten, einschließlich der Einrichtung von Speichersystemen und Zoning-Fabric-Switches im Rahmen der Einrichtung von oVirt.

FCoE einrichten

FCoE hat sich meiner Meinung nach in Speichernetzwerken nicht durchgesetzt, wird aber häufig auf Servern als „letzte Meile“ eingesetzt, beispielsweise in HPE Virtual Connect.

Für die Einrichtung von FCoE sind zusätzliche einfache Schritte erforderlich.

Richten Sie die FCoE-Engine ein

Artikel auf der Red Hat-Website B.3. So richten Sie Red Hat Virtualization Manager für die Verwendung von FCoE ein
Auf dem Manager
, mit dem folgenden Befehl fügen wir den Schlüssel zum Manager hinzu und starten ihn neu:


$ sudo engine-config -s UserDefinedNetworkCustomProperties='fcoe=^((enable|dcb|auto_vlan)=(yes|no),?)*$'
$ sudo systemctl restart ovirt-engine.service

Einrichtungsknoten FCoE

Auf oVirt-Hosts müssen Sie installieren

$ sudo yum install vdsm-hook-fcoe

Als nächstes folgt das übliche FCoE-Setup, Artikel über Red Hat: 25.5. Konfigurieren einer Fibre Channel over Ethernet-Schnittstelle.

Suchen Sie auch nach Broadcom CNA Benutzerhandbuch FCoE-Konfiguration für Broadcom-basierte Adapter.

Stellen Sie sicher, dass die Pakete installiert sind (bereits minimal):

$ sudo yum install fcoe-utils lldpad

Als nächstes folgt das Setup selbst (anstelle von ens3f2 und ens3f3 ersetzen wir die Namen der im Speichernetzwerk enthaltenen CNAs):

$ sudo cp /etc/fcoe/cfg-ethx /etc/fcoe/cfg-ens3f2
$ sudo cp /etc/fcoe/cfg-ethx /etc/fcoe/cfg-ens3f3
$ sudo vim /etc/fcoe/cfg-ens3f2
$ sudo vim /etc/fcoe/cfg-ens3f3

Es ist wichtig,: Wenn die Netzwerkschnittstelle DCB/DCBX in Hardware unterstützt, muss der Parameter DCB_REQUIRED auf „Nein“ gesetzt werden.

DCB_REQUIRED=“ja“ → #DCB_REQUIRED=“ja“

Als nächstes sollten Sie sicherstellen, dass adminStatus auf allen Schnittstellen deaktiviert ist, einschließlich. ohne aktiviertes FCoE:

$ sudo lldptool set-lldp -i ens3f0 adminStatus=disabled
...
$ sudo lldptool set-lldp -i ens3f3 adminStatus=disabled

Wenn andere Netzwerkschnittstellen vorhanden sind, können Sie LLDP aktivieren:

$ sudo systemctl start lldpad
$ sudo systemctl enable lldpad

Wie bereits erwähnt, muss bei Verwendung von Hardware-DCB/DCBX die Einstellung DCB_REQUIRED aktiviert werden nicht und dieser Schritt kann übersprungen werden.

$ sudo dcbtool sc ens3f2 dcb on
$ sudo dcbtool sc ens3f3 dcb on
$ sudo dcbtool sc ens3f2 app:fcoe e:1
$ sudo dcbtool sc ens3f3 app:fcoe e:1
$ sudo ip link set dev ens3f2 up
$ sudo ip link set dev ens3f3 up
$ sudo systemctl start fcoe
$ sudo systemctl enable fcoe

Überprüfen Sie bei Netzwerkschnittstellen, ob Autostart aktiviert ist:

$ sudo vim /etc/sysconfig/network-scripts/ifcfg-ens3f2
$ sudo vim /etc/sysconfig/network-scripts/ifcfg-ens3f3

ONBOOT=yes

Konfigurieren Sie die konfigurierten FCoE-Schnittstellen. Die Befehlsausgabe sollte nicht leer sein.

$ sudo fcoeadm -i

Die anschließende Konfiguration von FCoE erfolgt wie bei regulärem FC.

Als nächstes folgt die Konfiguration von Speichersystemen und Netzwerken – Zoning, SAN-Hosts, Erstellung und Präsentation von Volumes/LUNs, danach kann der Speicher mit ovirt-hosts verbunden werden: Speicher → Domänen → Neue Domäne.

Belassen Sie die Domänenfunktion als Daten, den Speichertyp als Fibre Channel, den Host als beliebig und den Namen z. B. storNN-volMM.

Sicherlich ermöglicht Ihr Speichersystem eine Verbindung nicht nur zur Pfadreservierung, sondern auch zum Ausgleich. Viele moderne Systeme sind in der Lage, Daten auf allen Wegen gleichermaßen optimal zu übertragen (ALUA aktiv/aktiv).

Um alle Pfade im aktiven Zustand zu aktivieren, müssen Sie Multipasing konfigurieren, mehr dazu in den folgenden Artikeln.

Die Einrichtung von NFS und iSCSI erfolgt auf ähnliche Weise.

ISO-Image-Speicherung

Um das Betriebssystem zu installieren, benötigen Sie dessen Installationsdateien, die meist in Form von ISO-Images vorliegen. Sie können den integrierten Pfad verwenden, aber um mit Bildern in oVirt zu arbeiten, wurde ein spezieller Speichertyp entwickelt – ISO, der auf einen NFS-Server ausgerichtet werden kann. Fügen Sie es hinzu:

Speicher → Domänen → Neue Domäne,
Domänenfunktion → ISO,
Exportpfad – z.B. mynfs01.example.com:/exports/ovirt-iso (zum Zeitpunkt der Verbindung muss der Ordner leer sein, der Manager muss in der Lage sein, darauf zu schreiben),
Name – z. B. mynfs01-iso.

Der Manager erstellt eine Struktur zum Speichern von Bildern
/exports/ovirt-iso/<some UUID>/images/11111111-1111-1111-1111-111111111111/

Wenn auf unserem NFS-Server bereits ISO-Images vorhanden sind, ist es aus Platzgründen praktisch, diese mit diesem Ordner zu verknüpfen, anstatt Dateien zu kopieren.

Erste VM

Zu diesem Zeitpunkt können Sie bereits die erste virtuelle Maschine erstellen und darauf das Betriebssystem und die Anwendungssoftware installieren.

Computing → Virtuelle Maschinen → Neu

Geben Sie für die neue Maschine einen Namen (Name) an, erstellen Sie eine Festplatte (Instanzbilder → Erstellen) und verbinden Sie eine Netzwerkschnittstelle (Instanziieren Sie VM-Netzwerkschnittstellen durch Auswahl eines vNIC-Profils → wählen Sie vorerst das einzige ovirtmgmt aus der Liste aus).

Auf der Clientseite benötigen Sie einen modernen Browser und SPICE-Client um mit der Konsole zu interagieren.

Die erste Maschine wurde erfolgreich eingeführt. Für einen umfassenderen Betrieb des Systems sind jedoch noch eine Reihe zusätzlicher Einstellungen erforderlich, die wir in den folgenden Artikeln weiterführen.

Source: habr.com

Kommentar hinzufügen