Vytvoření IT infrastruktury odolné proti chybám. Část 2. Instalace a konfigurace clusteru oVirt 4.3

Tento článek je pokračováním předchozího - “Vytvoření IT infrastruktury odolné proti chybám. Část 1 – Příprava na nasazení clusteru oVirt 4.3".

Bude pokrývat proces základní instalace a konfigurace clusteru oVirt 4.3 pro hostování vysoce dostupných virtuálních strojů s přihlédnutím ke skutečnosti, že všechny předběžné kroky pro přípravu infrastruktury již byly dokončeny dříve.

Úvod

Hlavním účelem článku je poskytnout podrobné pokyny jako „další -> Ano -> úprava"jak zobrazit některé funkce při instalaci a konfiguraci." Proces nasazení vašeho clusteru se nemusí vždy shodovat s tím, který je v něm popsán, kvůli vlastnostem infrastruktury a prostředí, ale obecné principy budou stejné.

Ze subjektivního hlediska oVirt 4.3 jeho funkčnost je podobná VMware vSphere verze 5.x, ale samozřejmě s vlastními konfiguračními a provozními vlastnostmi.

Pro zájemce všechny rozdíly mezi RHEV (alias oVirt) a VMware vSphere lze najít například na internetu zde, ale přesto si v průběhu článku občas všimnu některých jejich vzájemných rozdílů nebo podobností.

Samostatně bych chtěl trochu porovnat práci se sítěmi pro virtuální stroje. oVirt implementuje podobný princip správy sítě pro virtuální stroje (dále jen VM), jako ve VMware vSphere:

  • pomocí standardního linuxového mostu (ve VMware - Standardní vSwitch), běžící na virtualizačních hostitelích;
  • pomocí Open vSwitch (OVS) (ve VMware - Distribuovaný vSwitch) je distribuovaný virtuální přepínač sestávající ze dvou hlavních komponent: centrálního OVN serveru a OVN kontrolérů na spravovaných hostitelích.

Je třeba poznamenat, že kvůli snadné implementaci bude článek popisovat nastavení sítí v oVirt pro VM pomocí standardního linuxového mostu, který je standardní volbou při použití hypervizoru KVM.

V tomto ohledu existuje několik základních pravidel pro práci se sítí v clusteru, která je nejlepší neporušovat:

  • Všechna síťová nastavení na hostitelích před jejich přidáním do oVirt musí být identická, s výjimkou IP adres.
  • Jakmile je hostitel převzat pod kontrolu oVirt, důrazně se nedoporučuje nic ručně měnit v nastavení sítě na něm, aniž byste měli plnou důvěru ve své akce, protože agent oVirt je po restartu jednoduše vrátí zpět k předchozím. hostitel nebo agent.
  • Přidání nové sítě pro virtuální počítač a také práce s ním by měly být prováděny pouze z konzoly pro správu oVirt.

Další důležitá poznámka — pro velmi kritické prostředí (velmi citlivé na peněžní ztráty) by se stále doporučovalo využívat placenou podporu a používání Virtualizace Red Hat 4.3. Během provozu clusteru oVirt mohou nastat problémy, pro které je vhodné co nejdříve získat kvalifikovanou pomoc, než je řešit sami.

A nakonec je doporučeno Před nasazením clusteru oVirt se seznamte s oficiální dokumentace, abyste si byli vědomi alespoň základních pojmů a definic, jinak bude trochu obtížné číst zbytek článku.

Základem pro pochopení článku a principů fungování clusteru oVirt jsou tyto pokyny:

Objem tam není moc velký, za hodinu nebo dvě se dají celkem zvládnout základní principy, ale pro ty, co mají rádi detaily, se doporučuje přečíst Produktová dokumentace pro Red Hat Virtualization 4.3 — RHEV a oVirt jsou v podstatě totéž.

Pokud jsou tedy dokončena všechna základní nastavení na hostitelích, přepínačích a úložných systémech, přistoupíme přímo k nasazení oVirt.

Část 2. Instalace a konfigurace clusteru oVirt 4.3

Pro snazší orientaci uvedu v tomto článku hlavní části, které je nutné vyplnit jeden po druhém:

  1. Instalace serveru pro správu oVirt
  2. Vytvoření nového datového centra
  3. Vytvoření nového clusteru
  4. Instalace dalších hostitelů v prostředí s vlastním hostitelem
  5. Vytvoření oblasti úložiště nebo domén úložiště
  6. Vytváření a konfigurace sítí pro virtuální stroje
  7. Vytvoření obrazu instalace pro nasazení virtuálního počítače
  8. Vytvořte virtuální stroj

Instalace serveru pro správu oVirt

oVirt server pro správu je nejdůležitějším prvkem infrastruktury oVirt ve formě virtuálního počítače, hostitele nebo virtuálního zařízení, které spravuje celou infrastrukturu oVirt.

Jeho blízké analogy ze světa virtualizace jsou:

  • VMware vSphere - vCenter Server
  • Microsoft Hyper-V – System Center Virtual Machine Manager (VMM).

Chcete-li nainstalovat server pro správu oVirt, máme dvě možnosti:

Možnost 1
Nasazení serveru ve formě specializovaného virtuálního počítače nebo hostitele.

Tato možnost funguje celkem dobře, ale za předpokladu, že takový VM funguje nezávisle na clusteru, tzn. neběží na žádném hostiteli clusteru jako běžný virtuální stroj s KVM.

Proč nelze takový virtuální počítač nasadit na hostitele clusteru?

Na samém začátku procesu nasazení management serveru oVirt máme dilema - potřebujeme nainstalovat management VM, ale ve skutečnosti ještě žádný cluster neexistuje, a co tedy můžeme vymyslet za běhu? Je to tak – na budoucí uzel clusteru nainstalujte KVM, poté na něm vytvořte virtuální stroj například s OS CentOS a nasaďte do něj engine oVirt. To lze obvykle provést z důvodu úplné kontroly nad takovým VM, ale to je mylný záměr, protože v tomto případě budou v budoucnu 100% problémy s takovým řídicím VM:

  • nelze jej migrovat v konzole oVirt mezi hostiteli (uzly) clusteru;
  • při migraci pomocí KVM přes virsh migrovat, tento virtuální počítač nebude dostupný pro správu z konzoly oVirt.
  • hostitele clusteru nelze zobrazit v Režim údržby (režim údržby), pokud migrujete tento virtuální počítač z hostitele na hostitele pomocí virsh migrovat.

Udělejte tedy vše podle pravidel – použijte buď samostatný hostitel pro server pro správu oVirt, nebo na něm běžící nezávislý virtuální počítač, nebo ještě lépe, udělejte to, jak je napsáno ve druhé možnosti.

Možnost 2
Instalace oVirt Engine Appliance na hostitele clusteru, který spravuje.

Právě tato možnost bude v našem případě dále považována za správnější a vhodnější.
Požadavky na takový VM jsou popsány níže, jen doplním, že je doporučeno mít v infrastruktuře alespoň dva hostitele, na kterých lze řídicí VM provozovat, aby byl odolný proti chybám. Zde bych chtěl dodat, že jak jsem již psal v komentářích v předchozím článku, nikdy se mi nepodařilo sehnat rozdělený mozek na clusteru oVirt se dvěma hostiteli s možností spouštět na nich virtuální počítače s hostovaným enginem.

Instalace oVirt Engine Appliance na prvního hostitele clusteru

Odkaz na oficiální dokumentaci - oVirt Průvodce samoobslužným motorem, kapitola"Nasazení enginu s vlastním hostitelem pomocí příkazového řádku»

Dokument specifikuje předpoklady, které musí být splněny před nasazením hostovaného virtuálního počítače, a také podrobně popisuje samotný proces instalace, takže nemá smysl jej doslovně opakovat, proto se zaměříme na některé důležité detaily.

  • Před zahájením všech akcí nezapomeňte povolit podporu virtualizace v nastavení systému BIOS na hostiteli.
  • Nainstalujte balíček pro instalační program hostovaného motoru na hostitele:

yum -y install http://resources.ovirt.org/pub/yum-repo/ovirt-release43.rpm 
yum -y install epel-release
yum install screen ovirt-hosted-engine-setup

  • Postup pro nasazení oVirt Hosted Engine zahájíme na obrazovce na hostiteli (ukončit ji můžete pomocí Ctrl-A + D, zavřít pomocí Ctrl-D):

screen
hosted-engine --deploy

Pokud chcete, můžete instalaci spustit s předem připraveným souborem odpovědí:

hosted-engine --deploy --config-append=/var/lib/ovirt-hosted-engine-setup/answers/answers-ohe.conf

  • Při nasazení hostovaného enginu specifikujeme všechny potřebné parametry:

- имя кластера
- количество vCPU и vRAM (рекомендуется 4 vCPU и 16 Гб)
- пароли
- тип хранилища для hosted engine ВМ – в нашем случае FC
- номер LUN для установки hosted engine
- где будет находиться база данных для hosted engine – рекомендую для простоты выбрать Local (это БД PostgreSQL работающая внутри этой ВМ)
и др. параметры. 

  • Pro instalaci vysoce dostupného virtuálního počítače s hostovaným enginem jsme dříve vytvořili speciální LUN na úložném systému, číslo 4 a velikost 150 GB, který byl poté prezentován hostitelům clusteru – viz. předchozí článek.

Dříve jsme také kontrolovali jeho viditelnost na hostitelích:

multipath -ll
…
3600a098000e4b4b3000003c95d171065 dm-3 DELL    , MD38xxf
size=150G features='3 queue_if_no_path pg_init_retries 50' hwhandler='1 rdac' wp=rw
|-+- policy='service-time 0' prio=14 status=active
| `- 15:0:0:4  sdc 8:32  active ready running
`-+- policy='service-time 0' prio=9 status=enabled
  `- 18:0:0:4  sdj 8:144 active ready running

  • Samotný proces nasazení hostovaného motoru není složitý; na konci bychom měli obdržet něco takového:

[ INFO  ] Generating answer file '/var/lib/ovirt-hosted-engine-setup/answers/answers-20191129131846.conf'
[ INFO  ] Generating answer file '/etc/ovirt-hosted-engine/answers.conf'
[ INFO  ] Stage: Pre-termination
[ INFO  ] Stage: Termination
[ INFO  ] Hosted Engine successfully deployed

Kontrolujeme přítomnost služeb oVirt na hostiteli:

Vytvoření IT infrastruktury odolné proti chybám. Část 2. Instalace a konfigurace clusteru oVirt 4.3

Pokud bylo vše provedeno správně, přejděte po dokončení instalace pomocí webového prohlížeče https://ovirt_hostname/ovirt-engine z počítače správce a klikněte na [Administrační portál].

Snímek obrazovky „Administrační portál“

Vytvoření IT infrastruktury odolné proti chybám. Část 2. Instalace a konfigurace clusteru oVirt 4.3

Zadáním přihlašovacího jména a hesla (nastaveného během procesu instalace) do okna jako na snímku obrazovky se dostaneme do ovládacího panelu Open Virtualization Manager, ve kterém můžete provádět všechny akce s virtuální infrastrukturou:

  1. přidat datové centrum
  2. přidat a nakonfigurovat cluster
  3. přidávat a spravovat hostitele
  4. přidat oblasti úložiště nebo domény úložiště pro disky virtuálních strojů
  5. přidávat a konfigurovat sítě pro virtuální stroje
  6. přidávat a spravovat virtuální počítače, instalační obrazy, šablony virtuálních počítačů

Vytvoření IT infrastruktury odolné proti chybám. Část 2. Instalace a konfigurace clusteru oVirt 4.3

Všechny tyto akce budou dále diskutovány, některé ve velkých buňkách, jiné podrobněji a s nuancemi.
Nejdříve bych ale doporučil přečíst si tento doplněk, který se pravděpodobně bude mnohým hodit.

Přidání

1) V zásadě, pokud existuje taková potřeba, pak vám nic nebrání nainstalovat hypervizor KVM na uzly clusteru předem pomocí balíčků libvirt и qemu-kvm (nebo qemu-kvm-ev) požadované verze, i když při nasazení uzlu clusteru oVirt to může udělat sám.

Ale pokud libvirt и qemu-kvm Pokud jste nenainstalovali nejnovější verzi, může se při nasazování hostovaného enginu zobrazit následující chyba:

error: unsupported configuration: unknown CPU feature: md-clear

Tito. musí mít aktualizovaná verze libvirt s ochranou před MDS, která podporuje tyto zásady:

<feature policy='require' name='md-clear'/>

Nainstalujte libvirt v.4.5.0-10.el7_6.12 s podporou md-clear:

yum-config-manager --disable mirror.centos.org_centos-7_7_virt_x86_64_libvirt-latest_

yum install centos-release-qemu-ev
yum update
yum install qemu-kvm qemu-img virt-manager libvirt libvirt-python libvirt-client virt-install virt-viewer libguestfs libguestfs-tools dejavu-lgc-sans-fonts virt-top libvirt libvirt-python libvirt-client

systemctl enable libvirtd
systemctl restart libvirtd && systemctl status libvirtd

Zkontrolujte podporu 'md-clear':

virsh domcapabilities kvm | grep require
      <feature policy='require' name='ss'/>
      <feature policy='require' name='hypervisor'/>
      <feature policy='require' name='tsc_adjust'/>
      <feature policy='require' name='clflushopt'/>
      <feature policy='require' name='pku'/>
      <feature policy='require' name='md-clear'/>
      <feature policy='require' name='stibp'/>
      <feature policy='require' name='ssbd'/>
      <feature policy='require' name='invtsc'/>

Poté můžete pokračovat v instalaci hostovaného enginu.

2) V oVirt 4.3 přítomnost a použití brány firewall firewalld je povinný požadavek.

Pokud se během nasazení virtuálního počítače pro hostovaný stroj zobrazí následující chyba:

[ ERROR ] fatal: [localhost]: FAILED! => {"changed": false, "msg": "firewalld is required to be enabled and active in order to correctly deploy hosted-engine. Please check, fix accordingly and re-deploy.n"}
[ ERROR ] Failed to execute stage 'Closing up': Failed executing ansible-playbook
[https://bugzilla.redhat.com/show_bug.cgi?id=1608467

Poté musíte vypnout další firewall (pokud je používán) a nainstalovat a spustit firewalld:

yum install firewalld
systemctl enable firewalld
systemctl start firewalld

firewall-cmd --state
firewall-cmd --get-default-zone
firewall-cmd --get-active-zones
firewall-cmd --get-zones

Později, při instalaci agenta ovirt na nového hostitele pro cluster, nakonfiguruje požadované porty firewalld automaticky.

3) Restartování hostitele, na kterém běží virtuální počítač s hostovaným enginem.

Jako obvykle, Odkaz 1 и Odkaz 2 k řídícím dokumentům.

Veškerá správa hostovaného virtuálního počítače se provádí POUZE pomocí příkazu hostovaný motor na hostiteli, kde běží, o Virsh musíme zapomenout, stejně jako na to, že se k tomuto VM můžete připojit přes SSH a spustit příkaz “vypnutí".

Postup pro uvedení virtuálního počítače do režimu údržby:

hosted-engine --set-maintenance --mode=global

hosted-engine --vm-status
!! Cluster is in GLOBAL MAINTENANCE mode !!
--== Host host1.test.local (id: 1) status ==--
conf_on_shared_storage             : True
Status up-to-date                  : True
Hostname                           : host1.test.local
Host ID                            : 1
Engine status                      : {"health": "good", "vm": "up", "detail": "Up"}
Score                              : 3400
stopped                            : False
Local maintenance                  : False
crc32                              : dee1a774
local_conf_timestamp               : 1821
Host timestamp                     : 1821
Extra metadata (valid at timestamp):
        metadata_parse_version=1
        metadata_feature_version=1
        timestamp=1821 (Sat Nov 29 14:25:19 2019)
        host-id=1
        score=3400
        vm_conf_refresh_time=1821 (Sat Nov 29 14:25:19 2019)
        conf_on_shared_storage=True
        maintenance=False
        state=GlobalMaintenance
        stopped=False

hosted-engine --vm-shutdown

Restartujeme hostitele pomocí hostovaného agenta motoru a uděláme s ním, co potřebujeme.

Po restartu zkontrolujte stav virtuálního počítače s hostovaným modulem:

hosted-engine --vm-status

Pokud se náš virtuální počítač s hostovaným enginem nespustí a pokud v protokolu služeb vidíme podobné chyby:

Chyba v protokolu služby:

journalctl -u ovirt-ha-agent
...
Jun 29 14:34:44 host1 journal: ovirt-ha-agent ovirt_hosted_engine_ha.agent.hosted_engine.HostedEngine ERROR Failed to start necessary monitors
Jun 29 14:34:44 host1 journal: ovirt-ha-agent ovirt_hosted_engine_ha.agent.agent.Agent ERROR Traceback (most recent call last):#012  File "/usr/lib/python2.7/site-packages/ovirt_hosted_engine_ha/agent/agent.py", line 131, in _run_agent#012    return action(he)#012  File "/usr/lib/python2.7/site-packages/ovirt_hosted_engine_ha/agent/agent.py", line 55, in action_proper#012    return he.start_monitoring()#012  File "/usr/lib/python2.7/site-packages/ovirt_hosted_engine_ha/agent/hosted_engine.py", line 413, in start_monitoring#012    self._initialize_broker()#012  File "/usr/lib/python2.7/site-packages/ovirt_hosted_engine_ha/agent/hosted_engine.py", line 537, in _initialize_broker#012    m.get('options', {}))#012  File "/usr/lib/python2.7/site-packages/ovirt_hosted_engine_ha/lib/brokerlink.py", line 86, in start_monitor#012    ).format(t=type, o=options, e=e)#012RequestError: brokerlink - failed to start monitor via ovirt-ha-broker: [Errno 2] No such file or directory, [monitor: 'ping', options: {'addr': '172.20.32.32'}]
Jun 29 14:34:44 host1 journal: ovirt-ha-agent ovirt_hosted_engine_ha.agent.agent.Agent ERROR Trying to restart agent

Poté připojíme úložiště a restartujeme agenta:

hosted-engine --connect-storage
systemctl restart ovirt-ha-agent
systemctl status ovirt-ha-agent

hosted-engine --vm-start
hosted-engine --vm-status

Po spuštění virtuálního počítače s hostovaným enginem jej vyjmeme z režimu údržby:

Postup odebrání virtuálního počítače z režimu údržby:

hosted-engine --check-liveliness
hosted-engine --set-maintenance --mode=none
hosted-engine --vm-status

--== Host host1.test.local (id: 1) status ==--

conf_on_shared_storage             : True
Status up-to-date                  : True
Hostname                           : host1.test.local
Host ID                            : 1
Engine status                      : {"health": "good", "vm": "up", "detail": "Up"}
Score                              : 3400
stopped                            : False
Local maintenance                  : False
crc32                              : 6d1eb25f
local_conf_timestamp               : 6222296
Host timestamp                     : 6222296
Extra metadata (valid at timestamp):
        metadata_parse_version=1
        metadata_feature_version=1
        timestamp=6222296 (Fri Jan 17 11:40:43 2020)
        host-id=1
        score=3400
        vm_conf_refresh_time=6222296 (Fri Jan 17 11:40:43 2020)
        conf_on_shared_storage=True
        maintenance=False
        state=EngineUp
        stopped=False

4) Odstranění hostovaného enginu a všeho s ním spojeného.

Někdy je nutné řádně odebrat dříve nainstalovaný hostovaný engine - odkaz do dokumentu s pokyny.

Stačí spustit příkaz na hostiteli:

/usr/sbin/ovirt-hosted-engine-cleanup

Dále odstraníme nepotřebné balíčky a v případě potřeby před tím zálohujeme některé konfigurace:

yum autoremove ovirt* qemu* virt* libvirt* libguestfs 

Vytvoření nového datového centra

Referenční dokumentace – oVirt Administration Guide. Kapitola 4: Datová centra

Nejprve si definujme, co to je datové centrum (cituji z nápovědy) je logická entita, která definuje množinu zdrojů používaných v konkrétním prostředí.

Datové centrum je druh kontejneru, který se skládá z:

  • logické prostředky ve formě klastrů a hostitelů
  • síťové prostředky clusteru ve formě logických sítí a fyzických adaptérů na hostitelích,
  • úložné prostředky (pro disky VM, šablony, obrazy) ve formě úložných oblastí (Storage Domains).

Datové centrum může zahrnovat více klastrů skládajících se z více hostitelů, na kterých běží virtuální stroje, a může mít také přidružených více úložných oblastí.
Datových center může být několik, fungují nezávisle na sobě. Ovirt má rozdělené pravomoci podle rolí a oprávnění můžete konfigurovat individuálně, a to jak na úrovni datového centra, tak na jeho jednotlivých logických prvcích.

Datové centrum nebo datová centra, pokud jich je několik, jsou spravována z jediné administrativní konzoly nebo portálu.

Chcete-li vytvořit datové centrum, přejděte na administrativní portál a vytvořte nové datové centrum:
Vypočítat >> datová centra >> Nový

Vzhledem k tomu, že v systému úložiště používáme sdílené úložiště, typ úložiště by měl být Shared:

Snímek obrazovky Průvodce vytvořením datového centra

Vytvoření IT infrastruktury odolné proti chybám. Část 2. Instalace a konfigurace clusteru oVirt 4.3

Při instalaci virtuálního stroje s hostovaným enginem se ve výchozím nastavení vytvoří datové centrum - Datové centrum 1a pak v případě potřeby můžete změnit typ úložiště na jiný.

Vytvoření datového centra je jednoduchý úkol, bez jakýchkoli záludných nuancí a všechny další akce s ním jsou popsány v dokumentaci. Jediná věc, kterou poznamenám, je, že jednotliví hostitelé, kteří mají pouze místní úložiště (disk) pro virtuální počítače, se nebudou moci dostat do datového centra s typem úložiště - sdílené (nelze je tam přidat) a pro ně je třeba vytvořit samostatné datové centrum - tzn. Každý jednotlivý hostitel s místním úložištěm potřebuje své vlastní samostatné datové centrum.

Vytvoření nového clusteru

Odkaz na dokumentaci – oVirt Administration Guide. Kapitola 5: Clustery

Bez zbytečných detailů, cluster – jedná se o logické seskupení hostitelů, kteří mají společný úložný prostor (ve formě sdílených disků na úložném systému, jako v našem případě). Je také žádoucí, aby hostitelé v clusteru byli hardwarově identičtí a měli stejný typ procesoru (Intel nebo AMD). Nejlepší je samozřejmě, aby servery v clusteru byly zcela identické.

Cluster je součástí datového centra (se specifickým typem úložiště - Místní nebo Společná) a všichni hostitelé musí patřit do nějakého druhu clusteru v závislosti na tom, zda mají sdílené úložiště nebo ne.

Při instalaci virtuálního počítače s hostovaným strojem na hostitele se ve výchozím nastavení vytvoří datové centrum - Datové centrum 1, spolu s clusterem – shluk1a v budoucnu můžete nakonfigurovat jeho parametry, povolit další možnosti, přidat k němu hostitele atd.

Jako obvykle, podrobnosti o všech nastaveních clusteru je vhodné nahlédnout do oficiální dokumentace. Z některých funkcí nastavení clusteru pouze doplním, že při jeho vytváření stačí nakonfigurovat pouze základní parametry na záložce obecně.

Uvedu nejdůležitější parametry:

  • Typ procesoru — se vybírá podle toho, které procesory jsou nainstalovány na hostitelích clusteru, od jakého jsou výrobce a který procesor na hostitelích je nejstarší, takže v závislosti na tom se použijí všechny dostupné instrukce procesoru v clusteru.
  • Typ přepínače – v našem clusteru používáme pouze Linux bridge, proto jsme si jej vybrali.
  • Typ brány firewall – zde je vše jasné, jedná se o firewall, který musí být povolen a konfigurován na hostitelích.

Snímek obrazovky s parametry clusteru

Vytvoření IT infrastruktury odolné proti chybám. Část 2. Instalace a konfigurace clusteru oVirt 4.3

Instalace dalších hostitelů v prostředí s vlastním hostitelem

Odkaz pro dokumentaci.

Další hostitelé pro prostředí s vlastním hostitelem se přidávají stejným způsobem jako běžný hostitel, s dalším krokem nasazení virtuálního počítače s hostovaným jádrem – Vyberte akci nasazení hostovaného enginu >> Nasazení. Vzhledem k tomu, že dodatečnému hostiteli musí být předložena také LUN pro virtuální počítač s hostovaným modulem, znamená to, že tohoto hostitele lze v případě potřeby použít k hostování virtuálního počítače s hostovaným modulem.
Pro účely odolnosti proti chybám se důrazně doporučuje, aby existovali alespoň dva hostitelé, na které lze umístit hostovaný virtuální počítač motoru.

Na dalším hostiteli zakažte iptables (pokud je povoleno), povolte firewalld

systemctl stop iptables
systemctl disable iptables

systemctl enable firewalld
systemctl start firewalld

Nainstalujte požadovanou verzi KVM (v případě potřeby):

yum-config-manager --disable mirror.centos.org_centos-7_7_virt_x86_64_libvirt-latest_

yum install centos-release-qemu-ev
yum update
yum install qemu-kvm qemu-img virt-manager libvirt libvirt-python libvirt-client virt-install virt-viewer libguestfs libguestfs-tools dejavu-lgc-sans-fonts virt-top libvirt libvirt-python libvirt-client

systemctl enable libvirtd
systemctl restart libvirtd && systemctl status libvirtd

virsh domcapabilities kvm | grep md-clear

Nainstalujte potřebná úložiště a hostovaný instalační program motoru:

yum -y install http://resources.ovirt.org/pub/yum-repo/ovirt-release43.rpm
yum -y install epel-release
yum update
yum install screen ovirt-hosted-engine-setup

Dále přejděte do konzole Otevřete Virtualization Manager, přidejte nového hostitele a udělejte vše krok za krokem, jak je napsáno v dokumentace.

V důsledku toho bychom po přidání dalšího hostitele měli získat něco jako obrázek v administrativní konzoli, jako na snímku obrazovky.

Snímek obrazovky administrativního portálu - hostitelé

Vytvoření IT infrastruktury odolné proti chybám. Část 2. Instalace a konfigurace clusteru oVirt 4.3

Hostitel, na kterém je aktuálně aktivní virtuální počítač s hostovaným modulem, má zlatou korunu a nápis „Spuštění virtuálního počítače Hosted Engine", hostitel, na kterém lze tento virtuální počítač v případě potřeby spustit - nápis "Může spustit hostovaný stroj VM".

V případě selhání hostitele, na kterém "Spuštění virtuálního počítače Hosted Engine“, automaticky se restartuje na druhém hostiteli. Tento virtuální počítač lze také migrovat z aktivního hostitele do pohotovostního hostitele za účelem jeho údržby.

Nastavení správy napájení / oplocení na hostitelích oVirt

Odkazy na dokumentaci:

I když se může zdát, že jste dokončili přidávání a konfiguraci hostitele, není to tak úplně pravda.
Pro normální provoz hostitelů a pro identifikaci/řešení poruch kteréhokoli z nich je vyžadováno nastavení správy napájení / oplocení.

Oplocení, neboli oplocení, je proces dočasného vyloučení vadného nebo selhávajícího hostitele z clusteru, během kterého se restartují buď služby oVirt na něm nebo samotný hostitel.

Všechny podrobnosti o definicích a parametrech správy napájení / oplocení jsou uvedeny jako obvykle v dokumentaci; uvedu pouze příklad, jak nakonfigurovat tento důležitý parametr, jak je použit pro servery Dell R640 s iDRAC 9.

  1. Přejděte na administrativní portál, klikněte Vypočítat >> Hostitelé vyberte hostitele.
  2. Klikneme Změnit.
  3. Klepněte na kartu Power Management.
  4. Zaškrtněte políčko vedle možnosti Povolit správu napájení.
  5. Zaškrtněte políčko vedle možnosti Kdump integracezabránit hostiteli v přechodu do režimu oplocení při nahrávání výpisu z havárie jádra.

Poznámka.

Po povolení integrace Kdump na již běžícím hostiteli je nutné jej znovu nainstalovat podle postupu v oVirt Administration Guide -> Kapitola 7: Hostitelé -> Přeinstalace hostitelů.

  1. Volitelně můžete zaškrtnout políčko Zakázat řízení zásad správy napájení, pokud nechceme, aby správa napájení hostitele byla řízena zásadami plánování clusteru.
  2. Klikněte na tlačítko (+) pro přidání nového zařízení pro správu napájení se otevře okno pro úpravu vlastností agenta.
    Pro iDRAC9 vyplňte pole:

    • Adresa – adresa iDRAC9
    • Uživatelské jméno heslo – přihlašovací jméno a heslo pro přihlášení do iDRAC9, resp
    • Styl —drac5
    • značka bezpečný
    • přidejte následující možnosti: cmd_prompt=>,login_timeout=30

Snímek obrazovky s parametry „Správa napájení“ ve vlastnostech hostitele

Vytvoření IT infrastruktury odolné proti chybám. Část 2. Instalace a konfigurace clusteru oVirt 4.3

Vytvoření oblasti úložiště nebo domén úložiště

Odkaz na dokumentaci - Průvodce administrací oVirt, Kapitola 8: Skladování.

Doména úložiště, neboli úložná oblast, je centralizované umístění pro ukládání disků virtuálních strojů, instalačních obrazů, šablon a snímků.

Úložné prostory lze připojit k datovému centru pomocí různých protokolů, clusterových a síťových souborových systémů.

oVirt má tři typy úložných prostor:

  • Datová doména – k ukládání všech dat spojených s virtuálními stroji (disky, šablony). Datovou doménu nelze sdílet mezi různými datovými centry.
  • ISO doména (zastaralý typ úložného prostoru) – pro ukládání instalačních obrazů OS. Doménu ISO lze sdílet mezi různými datovými centry.
  • Exportovat doménu (zastaralý typ úložného prostoru) – pro dočasné ukládání snímků přesouvaných mezi datovými centry.

V našem konkrétním případě úložiště typu Data Domain používá protokol Fibre Channel Protocol (FCP) pro připojení k LUN v systému úložiště.

Z pohledu oVirt je při použití úložných systémů (FC nebo iSCSI) každý virtuální disk, snímek nebo šablona logickým diskem.
Bloková zařízení jsou sestavena do jedné jednotky (na hostitelích clusteru) pomocí skupiny svazků a poté rozdělena pomocí LVM na logické svazky, které se používají jako virtuální disky pro virtuální počítače.

Všechny tyto skupiny a mnoho svazků LVM lze vidět na hostiteli clusteru pomocí příkazů vg и já proti. Všechny akce s takovými disky by samozřejmě měly být prováděny pouze z konzole oVirt, s výjimkou zvláštních případů.

Virtuální disky pro VM mohou být dvou typů – QCOW2 nebo RAW. Disky mohou být "tenký„nebo“tlustý". Snímky jsou vždy vytvořeny jako "tenké".

Způsob správy úložných domén nebo úložných oblastí, ke kterým se přistupuje přes FC, je celkem logický – pro každý virtuální disk virtuálního počítače existuje samostatný logický svazek, do kterého může zapisovat pouze jeden hostitel. Pro FC připojení používá oVirt něco jako clusterovaný LVM.

Virtuální stroje umístěné ve stejné oblasti úložiště lze migrovat mezi hostiteli patřícími do stejného clusteru.

Jak vidíme z popisu, cluster v oVirt, stejně jako cluster ve VMware vSphere nebo Hyper-V, znamená v podstatě totéž - jde o logické seskupení hostitelů, nejlépe identických v hardwarovém složení a majících společné úložiště pro virtuální strojové disky.

Pokračujme přímo k vytvoření úložného prostoru pro data (VM disky), protože bez něj nebude datové centrum inicializováno.
Dovolte mi připomenout, že všechny LUN prezentované hostitelům clusteru na úložném systému na nich musí být viditelné pomocí příkazu “vícecestný -ll".

Podle dokumentace, přejděte na portál přejděte na Skladování >> Domény -> Nová doména a postupujte podle pokynů v části „Přidání úložiště FCP“.

Po spuštění průvodce vyplňte požadovaná pole:

  • Příjmení — nastavte název clusteru
  • Funkce domény -Data
  • Typ úložiště — Fibre Channel
  • Hostitel k použití — vyberte hostitele, na kterém je dostupná LUN, kterou požadujeme

V seznamu LUN označíme tu, kterou potřebujeme, klikneme přidat a pak OK. V případě potřeby můžete kliknutím na upravit další parametry úložného prostoru Pokročilé parametry.

Snímek obrazovky průvodce přidáním „domény úložiště“

Vytvoření IT infrastruktury odolné proti chybám. Část 2. Instalace a konfigurace clusteru oVirt 4.3

Na základě výsledků průvodce bychom měli obdržet nový úložný prostor a naše datové centrum by se mělo přesunout do stavu UPnebo inicializováno:

Snímky obrazovky datového centra a úložných prostor v něm:

Vytvoření IT infrastruktury odolné proti chybám. Část 2. Instalace a konfigurace clusteru oVirt 4.3

Vytvoření IT infrastruktury odolné proti chybám. Část 2. Instalace a konfigurace clusteru oVirt 4.3

Vytváření a konfigurace sítí pro virtuální stroje

Odkaz na dokumentaci - Průvodce administrací oVirt, Kapitola 6: Logické sítě

Sítě neboli sítě slouží k seskupování logických sítí používaných ve virtuální infrastruktuře oVirt.

K interakci mezi síťovým adaptérem na virtuálním počítači a fyzickým adaptérem na hostiteli se používají logická rozhraní, jako je Linux bridge.

Pro seskupení a rozdělení provozu mezi sítěmi jsou na přepínačích nakonfigurovány sítě VLAN.

Při vytváření logické sítě pro virtuální stroje v oVirt jí musí být přiřazen identifikátor odpovídající číslu VLAN na přepínači, aby spolu virtuální počítače mohly komunikovat, i když běží na různých uzlech clusteru.

Bylo nutné provést předběžná nastavení síťových adaptérů na hostitelích pro připojení virtuálních strojů předchozí článek – nakonfigurováno logické rozhraní vazba 1, pak by všechna síťová nastavení měla být provedena pouze prostřednictvím administrativního portálu oVirt.

Po vytvoření VM s hostovaným enginem byla kromě automatického vytvoření datového centra a clusteru automaticky vytvořena také logická síť pro správu našeho clusteru - ovritmgmt, ke kterému byl tento virtuální počítač připojen.

V případě potřeby můžete zobrazit nastavení logické sítě ovritmgmt a upravte je, ale musíte být opatrní, abyste neztratili kontrolu nad infrastrukturou oVirt.

Nastavení logické sítě ovritmgmt

Vytvoření IT infrastruktury odolné proti chybám. Část 2. Instalace a konfigurace clusteru oVirt 4.3

Chcete-li vytvořit novou logickou síť pro běžné virtuální počítače, přejděte na administrativní portál na Síť >> Sítě >> Novýa na kartě obecně přidejte síť s požadovaným VLAN ID a také zaškrtněte políčko vedle „Síť VM“, to znamená, že jej lze použít pro přiřazení k virtuálnímu počítači.

Snímek obrazovky nové logické sítě VLAN32

Vytvoření IT infrastruktury odolné proti chybám. Část 2. Instalace a konfigurace clusteru oVirt 4.3

V záložce Shluk, připojíme tuto síť k našemu clusteru shluk1.

Po tomto jdeme do Vypočítat >> Hostitelépřejděte postupně ke každému hostiteli na kartu Síťová rozhranía spusťte průvodce Nastavení hostitelských sítí, k navázání na hostitele nové logické sítě.

Snímek obrazovky průvodce „Nastavení hostitelských sítí“.

Vytvoření IT infrastruktury odolné proti chybám. Část 2. Instalace a konfigurace clusteru oVirt 4.3

Agent oVirt automaticky provede všechna potřebná nastavení sítě na hostiteli – vytvoří VLAN a BRIDGE.

Příklady konfiguračních souborů pro nové sítě na hostiteli:

cat ifcfg-bond1
# Generated by VDSM version 4.30.17.1
DEVICE=bond1
BONDING_OPTS='mode=1 miimon=100'
MACADDR=00:50:56:82:57:52
ONBOOT=yes
MTU=1500
DEFROUTE=no
NM_CONTROLLED=no
IPV6INIT=no

cat ifcfg-bond1.432
# Generated by VDSM version 4.30.17.1
DEVICE=bond1.432
VLAN=yes
BRIDGE=ovirtvm-vlan432
ONBOOT=yes
MTU=1500
DEFROUTE=no
NM_CONTROLLED=no
IPV6INIT=no

cat ifcfg-ovirtvm-vlan432
# Generated by VDSM version 4.30.17.1
DEVICE=ovirtvm-vlan432
TYPE=Bridge
DELAY=0
STP=off
ONBOOT=yes
MTU=1500
DEFROUTE=no
NM_CONTROLLED=no
IPV6INIT=no

Dovolte mi ještě jednou připomenout, že na hostiteli clusteru NENÍ potřeba vytvořit síťová rozhraní ručně předem ifcfg-bond1.432 и ifcfg-ovirtvm-vlan432.

Po přidání logické sítě a kontrole spojení mezi hostitelem a hostovaným motorem VM ji lze použít ve virtuálním počítači.

Vytvoření obrazu instalace pro nasazení virtuálního počítače

Odkaz na dokumentaci - Průvodce administrací oVirt, Kapitola 8: Skladování, sekce Nahrávání obrázků do domény úložiště dat.

Bez instalačního obrazu OS nebude možné virtuální stroj nainstalovat, i když to samozřejmě není problém, pokud je nainstalován např. v síti Švec s předem vytvořenými obrázky.

V našem případě to není možné, takže tento obrázek budete muset do oVirtu importovat sami. Dříve to vyžadovalo vytvoření domény ISO, ale v nové verzi oVirt byla zastaralá, a proto nyní můžete nahrávat obrázky přímo do domény Storage z administrativního portálu.

V administrativním portálu přejděte na Skladování >> Disky >> Nahrát >> Home
Přidáme náš obrázek OS jako soubor ISO, vyplníme všechna pole ve formuláři a klikneme na tlačítko "Test připojení".

Snímek obrazovky Průvodce přidáním instalačního obrazu

Vytvoření IT infrastruktury odolné proti chybám. Část 2. Instalace a konfigurace clusteru oVirt 4.3

Pokud se nám zobrazí chyba, jako je tato:

Unable to upload image to disk d6d8fd10-c1e0-4f2d-af15-90f8e636dadc due to a network error. Ensure that ovirt-imageio-proxy service is installed and configured and that ovirt-engine's CA certificate is registered as a trusted CA in the browser. The certificate can be fetched from https://ovirt.test.local/ovirt-engine/services/pki-resource?resource=ca-certificate&format=X509-PEM-CA`

Poté musíte přidat certifikát oVirt do „Důvěryhodné kořenové certifikační autority"(Trusted Root CA) na řídící stanici správce, odkud se pokoušíme stáhnout obraz.

Po přidání certifikátu do důvěryhodné kořenové CA klikněte znovu na "Test připojení", měl dostat:

Connection to ovirt-imageio-proxy was successful.

Po dokončení akce přidání certifikátu můžete zkusit znovu nahrát obraz ISO do úložné domény.

V zásadě můžete vytvořit samostatnou úložnou doménu s typem Data pro ukládání obrázků a šablon odděleně od disků VM, nebo je dokonce ukládat v úložné doméně pro hostovaný engine, ale to je na uvážení správce.

Snímek obrazovky s obrázky ISO v doméně úložiště pro hostovaný stroj

Vytvoření IT infrastruktury odolné proti chybám. Část 2. Instalace a konfigurace clusteru oVirt 4.3

Vytvořte virtuální stroj

Odkaz na dokumentaci:
oVirt Průvodce správou virtuálního počítače –> Kapitola 2: Instalace virtuálních strojů Linux
Zdroje klientů konzole

Po načtení instalačního obrazu s OS do oVirt můžete přejít přímo k vytvoření virtuálního stroje. Udělalo se hodně práce, ale už jsme v konečné fázi, kvůli které to všechno bylo zahájeno - získání infrastruktury odolné proti chybám pro hostování vysoce dostupných virtuálních strojů. A to vše je zcela zdarma – na nákup jakýchkoli softwarových licencí nebyl vynaložen jediný cent.

Chcete-li vytvořit virtuální počítač s CentOS 7, musíte si stáhnout instalační obraz z operačního systému.

Jdeme na administrativní portál, přejděte na Vypočítat >> Virtuální strojea spusťte průvodce vytvořením virtuálního počítače. Vyplňte všechny parametry a pole a klikněte OK. Vše je velmi jednoduché, pokud budete postupovat podle dokumentace.

Jako příklad uvedu základní a doplňková nastavení vysoce dostupného virtuálního počítače s vytvořeným diskem, připojeným k síti a spouštěním z instalačního obrazu:

Snímky obrazovky s vysoce dostupným nastavením virtuálního počítače

Vytvoření IT infrastruktury odolné proti chybám. Část 2. Instalace a konfigurace clusteru oVirt 4.3

Vytvoření IT infrastruktury odolné proti chybám. Část 2. Instalace a konfigurace clusteru oVirt 4.3

Vytvoření IT infrastruktury odolné proti chybám. Část 2. Instalace a konfigurace clusteru oVirt 4.3

Vytvoření IT infrastruktury odolné proti chybám. Část 2. Instalace a konfigurace clusteru oVirt 4.3

Vytvoření IT infrastruktury odolné proti chybám. Část 2. Instalace a konfigurace clusteru oVirt 4.3

Po dokončení práce s průvodcem jej zavřete, spusťte nový VM a nainstalujte na něj OS.
Chcete-li to provést, přejděte do konzoly tohoto virtuálního počítače prostřednictvím portálu pro správu:

Snímek obrazovky nastavení administrativního portálu pro připojení ke konzole virtuálního počítače

Vytvoření IT infrastruktury odolné proti chybám. Část 2. Instalace a konfigurace clusteru oVirt 4.3

Chcete-li se připojit ke konzole virtuálního počítače, musíte nejprve nakonfigurovat konzolu ve vlastnostech virtuálního počítače.

Snímek obrazovky nastavení virtuálního počítače, karta „Konzola“.

Vytvoření IT infrastruktury odolné proti chybám. Část 2. Instalace a konfigurace clusteru oVirt 4.3

Pro připojení ke konzole VM můžete použít např. Prohlížeč virtuálních strojů.

Chcete-li se připojit ke konzole VM přímo v okně prohlížeče, nastavení připojení přes konzolu by mělo být následující:

Vytvoření IT infrastruktury odolné proti chybám. Část 2. Instalace a konfigurace clusteru oVirt 4.3

Po instalaci OS na VM je vhodné nainstalovat hostujícího agenta oVirt:

yum -y install epel-release
yum install -y ovirt-guest-agent-common
systemctl enable ovirt-guest-agent.service && systemctl restart ovirt-guest-agent.service
systemctl status ovirt-guest-agent.service

V důsledku našeho jednání bude tedy vytvořený VM vysoce dostupný, tzn. pokud selže uzel clusteru, na kterém běží, oVirt jej automaticky restartuje na druhém uzlu. Tento virtuální počítač lze také migrovat mezi hostiteli clusteru pro jejich údržbu nebo pro jiné účely.

Závěr

Doufám, že se tímto článkem podařilo sdělit, že oVirt je zcela běžný nástroj pro správu virtuální infrastruktury, který není tak náročný na nasazení – hlavní je dodržovat určitá pravidla a požadavky popsané jak v článku, tak v dokumentaci.

Vzhledem k velkému objemu článku do něj nebylo možné zahrnout mnoho věcí, jako je postupné provádění různých průvodců se všemi podrobnými vysvětleními a snímky obrazovky, dlouhé závěry některých příkazů atd. Ve skutečnosti by to vyžadovalo napsat celou knihu, což nedává příliš smysl, protože se neustále objevují nové verze softwaru s inovacemi a změnami. Nejdůležitější je pochopit princip, jak to všechno dohromady funguje, a získat obecný algoritmus pro vytvoření platformy odolné proti chybám pro správu virtuálních strojů.

Přestože jsme vytvořili virtuální infrastrukturu, nyní ji musíme naučit interagovat jak mezi jejími jednotlivými prvky: hostiteli, virtuálními stroji, interními sítěmi, tak s vnějším světem.

Tento proces je jedním z hlavních úkolů správce systému nebo sítě, kterému se budeme věnovat v dalším článku - o použití virtuálních směrovačů VyOS v infrastruktuře odolné proti chybám našeho podniku (jak jste uhodli, budou fungovat jako virtuální stroje v našem clusteru oVirt).

Zdroj: www.habr.com

Přidat komentář