oVirt за 2 гадзіны. Частка 2. Устаноўка мэнэджэра і хастоў

Гэты артыкул - наступная ў цыкле па oVirt, пачатак тут.

артыкула

  1. Увядзенне
  2. Устаноўка мэнэджэра (ovirt-engine) і гіпервізораў (hosts) — Мы тут
  3. дадатковыя налады

Такім чынам, разгледзім пытанні першаснай усталёўкі кампанентаў ovirt-engine і ovirt-host.

Больш падрабязна працэсы ўстаноўкі заўсёды можна паглядзець у дакументацыі.

Змест

  1. Устаноўка ovirt-engine
  2. Устаноўка ovirt-host
  3. Даданне вузла ў oVirtN
  4. Настройка сеткавага інтэрфейсу
  5. Настройка FC
  6. Настройка FCoE
  7. Сховішча ISO вобразаў
  8. Першая ВМ

Устаноўка ovirt-engine

Для Engine мінімальныя патрабаванні 2 ядра/4 ГіБ АЗП/25 ГіБ сховішчы. Рэкамендаваныя - ад 4 ядраў/16 ГіБ АЗП/50 ГіБ захоўвання. Выкарыстоўваны варыянт Standalone Manager, калі engine працуе на выдзеленай фізічнай ці віртуальнай машыне па-за кіраваным кластарам. Для нашай усталёўкі возьмем віртуальную машыну напр., на асобна стаіць ESXi*. Зручна выкарыстоўваць сродкі аўтаматызацыі разгортвання ці кланаванне з раней падрыхтаванага шаблону ці ўсталёўку kickstart.

*Нататка: для вытворчай сістэмы гэта дрэнная ідэя, т.к. менеджэр працуе без рэзерву і становіцца вузкім месцам. У гэтым выпадку лепш разгледзець варыянт Self-Hosted Engine.

Пры неабходнасці, працэдура канвертавання Standalone ў Self Hosted падрабязна апісана ў дакументацыі. У прыватнасці, хасту трэба даць каманду reinstall з падтрымкай Hosted Engine.

На ВМ усталёўваны CentOS 7 у мінімальнай канфігурацыі, далей абнаўляемы і перазагружаем сістэму:

$ sudo yum update -y && sudo reboot

Для віртуальнай машыны карысна ўсталяваць гасцявога агента:

$ sudo yum install open-vm-tools

для хастоў VMware ESXi, або для oVirt:

$ sudo yum install ovirt-guest-agent

Падлучальны рэпазітар і ўсталёўваны менеджэр:

$ sudo yum install https://resources.ovirt.org/pub/yum-repo/ovirt-release43.rpm
$ sudo yum install ovirt-engine

Базавая настройка:

$ sudo engine-setup

У большасці выпадкаў абраныя па змаўчанні налады дастатковыя, для іх аўтаматычнага выкарыстання можна запусціць канфігурацыю з ключом:

$ sudo engine-setup --accept-defaults

Цяпер мы можам падключыцца да нашага новага engine па адрасе ovirt.lab.example.com. Тут яшчэ пуста, таму пераходзім да ўстаноўкі гіпервізораў.

Устаноўка ovirt-host

На фізічны хост усталёўваны CentOS 7 у мінімальнай канфігурацыі, далей падлучальны рэпазітар, абнаўляемы і перазагружаем сістэму:

$ sudo yum install https://resources.ovirt.org/pub/yum-repo/ovirt-release43.rpm
$ sudo yum update -y && sudo reboot

Заўвага: для ўстаноўкі зручна выкарыстоўваць сродкі аўтаматызацыі разгортвання або ўстаноўку kickstart.

Прыклад кікстарт файла
Увага! Існуючыя раздзелы выдаляюцца аўтаматычна! Будзьце асцярожныя!

# System authorization information
auth --enableshadow --passalgo=sha512
# Use CDROM installation media
cdrom
# Use graphical install
graphical
# Run the Setup Agent on first boot
firstboot --enable
ignoredisk --only-use=sda
# Keyboard layouts
keyboard --vckeymap=us --xlayouts='us','ru' --switch='grp:alt_shift_toggle'
# System language
lang ru_RU.UTF-8

# Network information
network  --bootproto=dhcp --device=ens192 --ipv6=auto --activate
network  --hostname=kvm01.lab.example.com

# Root password 'monteV1DE0'
rootpw --iscrypted $6$6oPcf0GW9VdmJe5w$6WBucrUPRdCAP.aBVnUfvaEu9ozkXq9M1TXiwOm41Y58DEerG8b3Ulme2YtxAgNHr6DGIJ02eFgVuEmYsOo7./
# User password 'metroP0!is'
user --name=mgmt --groups=wheel --iscrypted --password=$6$883g2lyXdkDLbKYR$B3yWx1aQZmYYi.aO10W2Bvw0Jpkl1upzgjhZr6lmITTrGaPupa5iC3kZAOvwDonZ/6ogNJe/59GN5U8Okp.qx.
# System services
services --enabled="chronyd"
# System timezone
timezone Europe/Moscow --isUtc
# System bootloader configuration
bootloader --append=" crashkernel=auto" --location=mbr --boot-drive=sda
# Partition clearing information
clearpart --all
# Disk partitioning information
part /boot --fstype xfs --size=1024 --ondisk=sda  --label=boot
part pv.01 --size=45056 --grow
volgroup HostVG pv.01 --reserved-percent=20
logvol swap --vgname=HostVG --name=lv_swap --fstype=swap --recommended
logvol none --vgname=HostVG --name=HostPool --thinpool --size=40960 --grow
logvol / --vgname=HostVG --name=lv_root --thin --fstype=ext4 --label="root" --poolname=HostPool --fsoptions="defaults,discard" --size=6144 --grow
logvol /var --vgname=HostVG --name=lv_var --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=16536
logvol /var/crash --vgname=HostVG --name=lv_var_crash --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=10240
logvol /var/log --vgname=HostVG --name=lv_var_log --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=8192
logvol /var/log/audit --vgname=HostVG --name=lv_var_audit --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=2048
logvol /home --vgname=HostVG --name=lv_home --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1024
logvol /tmp --vgname=HostVG --name=lv_tmp --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1024

%packages
@^minimal
@core
chrony
kexec-tools

%end

%addon com_redhat_kdump --enable --reserve-mb='auto'

%end

%anaconda
pwpolicy root --minlen=6 --minquality=1 --notstrict --nochanges --notempty
pwpolicy user --minlen=6 --minquality=1 --notstrict --nochanges --emptyok
pwpolicy luks --minlen=6 --minquality=1 --notstrict --nochanges --notempty
%end
# Reboot when the install is finished.
reboot --eject

Захавайце гэты файл, напр., на ftp.example.com/pub/labkvm.cfg. Для выкарыстання сцэнара пры запуску ўсталёўкі АС варта абраць пункт 'Install CentOS 7', уключыць рэжым рэдагавання параметраў (клавіша Tab) і ў канцы (з прабелам, без двукоссяў) дапісаць

' inst.ks=ftp://ftp.example.com/pub/labkvm.cfg'

.
Сцэнар усталёўкі выдаляе існыя часткі на /dev/sda, стварае новыя па рэкамендацыі распрацоўніка (паглядзець іх пасля ўсталёўкі зручна камандай lsblk). Імя хаста ўстанаўліваецца як kvm01.lab.example.com (пасля ўстаноўкі можна змяніць камандай hostnamectl set-hostname kvm03.lab.example.com), атрыманне IP адраса – аўтаматычна, гадзінны пояс – маскоўскі, дабаўлена падтрымка рускай мовы.

Пароль карыстальніка root: monteV1DE0, пароль карыстальніка mgmt: metroP0!is.
Увага! Існуючыя раздзелы выдаляюцца аўтаматычна! Будзьце асцярожныя!

Паўтараем (ці выконваем раўналежна) на ўсіх хастах. Ад уключэння «пустога» сервера да гатовага стану, з улікам 2-х працяглых загрузак патрабуецца каля 20 хвілін.

Даданне вузла ў oVirt

Выконваецца вельмі проста:

Compute → Hosts → New →…

У майстры абавязковыя палі Name (адлюстроўванае імя, напр., kvm03), Hostname (FQDN, напр. kvm03.lab.example.com) і секцыя Authentication карыстач root (нязменна) - пароль або SSH Public Key.

Пасля націску кнопкі Ok Вы атрымаеце паведамленне «Быце наладжаны Power Management for this Host. Are you sure you want to continue?». Гэта нармальна - кіраванне харчаваннем мы разгледзім далей, пасля паспяховага падлучэння хаста. Аднак, калі машыны, на якія ўсталяваныя хасты, не падтрымлівае кіраванне (IPMI, iLO, DRAC і да т.п.), рэкамендую яго адключыць: Compute → Clusters → Default → Edit → Fencing Ploicy → Enable fencing, прыбраць галку.

Калі на хасце не быў падлучаны рэпазітар oVirt, усталёўка скончыцца няўдачай, але нічога страшнага — трэба яго дадаць, затым націснуць Install -> Reinstall.

Падлучэнне хаста займае не больш за 5-10 хвілін.

Настройка сеткавага інтэрфейсу

Паколькі мы будуем абароненую ад збояў сістэму, сеткавае падлучэнне таксама павінна забяспечваць рэзерваванае падлучэнне, што і выконваецца на ўкладцы Compute → Hosts → HOST → Network Interfaces - Setup Host Networks.

У залежнасці ад магчымасцяў вашага сеткавага абсталявання і падыходаў да архітэктуры, магчымы варыянты. Аптымальней за ўсё падлучацца да стэка top-of-rack камтуатараў, каб пры адмове аднаго сеткавая даступнасць не перапынілася. Разгледзім на прыкладзе агрэгаванага канала LACP. Для налады агрэгаванага канала «узяць» мышкай 2-й незадзейнічаны адаптар і «адвезці» да 1-га. Адкрыецца акно Create New Bond, дзе LACP (Mode 4, Dynamic link aggregation, 802.3ad) абраны па змаўчанні. На баку камутатараў выконваецца звычайная настройка LACP групы. Калі няма магчымасці пабудаваць стэк камутатараў, можна задзейнічаць рэжым Active-Backup (Mode 1). Налады VLAN разгледзім у наступным артыкуле, а падрабязней з рэкамендацыямі па наладзе сеткі ў дакуменце Planning and Prerequisites Guide.

Настройка FC

Fibre Channel (FC) падтрымліваецца са скрынкі , яго выкарыстанне складанасцяў не выклікае. Наладу сеткі захоўвання, якая ўключае наладу сістэм захоўвання і занаванне fabric камутатараў у рамках налады oVirt мы не будзем.

Настройка FCoE

FCoE на мой погляд так і не атрымаў шырокага распаўсюджвання ў сетках захоўвання, але часта ўжываецца на серверах у якасці "апошняй мілі", напр., у HPE Virtual Connect.

Настройка FCoE патрабуе дадатковых нескладаных крокаў.

Setup FCoE Engine

Артыкул на сайце Red Hat B.3. How to Set Up Red Hat Virtualization Manager to Use FCoE
On the Manager
, наступнай камандай дадаем ключ у менеджэр і перазапускаем яго:


$ sudo engine-config -s UserDefinedNetworkCustomProperties='fcoe=^((enable|dcb|auto_vlan)=(yes|no),?)*$'
$ sudo systemctl restart ovirt-engine.service

Setup Node FCoE

На oVirt-Host'ах трэба ўсталяваць

$ sudo yum install vdsm-hook-fcoe

Далей звычайная настройка FCoE, артыкул на Red Hat: 25.5. Configuring a Fibre Channel over Ethernet Interface.

Для Broadcom CNA дадаткова глядзім User Guide FCoE Configuration for Broadcom-Based Adapters.

Упэўніцца, што ўсталяваныя пакеты (ужо ідуць у minimal):

$ sudo yum install fcoe-utils lldpad

Далей сама налада (замест ens3f2 і ens3f3 падстаўляем імёны CNA, уключаных у сетку захоўвання):

$ sudo cp /etc/fcoe/cfg-ethx /etc/fcoe/cfg-ens3f2
$ sudo cp /etc/fcoe/cfg-ethx /etc/fcoe/cfg-ens3f3
$ sudo vim /etc/fcoe/cfg-ens3f2
$ sudo vim /etc/fcoe/cfg-ens3f3

Важна: калі сеткавы інтэрфейс апаратна падтрымлівае DCB/DCBX, параметр DCB_REQUIRED павінен быць усталяваны ў no.

DCB_REQUIRED=«yes» → #DCB_REQUIRED=«yes»

Далей варта пераканацца, што adminStatus выключаны на ўсіх інтэрфейсах, у т.л. без уключанага FCoE:

$ sudo lldptool set-lldp -i ens3f0 adminStatus=disabled
...
$ sudo lldptool set-lldp -i ens3f3 adminStatus=disabled

Калі ёсць іншыя сеткавыя інтэрфейсы, можна ўключыць LLDP:

$ sudo systemctl start lldpad
$ sudo systemctl enable lldpad

Як гаварылася раней, калі выкарыстоўваецца апаратны DCB/DCBX, настройка DCB_REQUIRED павінна быць уключана ў Няма. і гэты крок можа быць прапушчаны.

$ sudo dcbtool sc ens3f2 dcb on
$ sudo dcbtool sc ens3f3 dcb on
$ sudo dcbtool sc ens3f2 app:fcoe e:1
$ sudo dcbtool sc ens3f3 app:fcoe e:1
$ sudo ip link set dev ens3f2 up
$ sudo ip link set dev ens3f3 up
$ sudo systemctl start fcoe
$ sudo systemctl enable fcoe

Для сеткавых інтэрфейсаў праверыць ці ўключаны аўтастарт:

$ sudo vim /etc/sysconfig/network-scripts/ifcfg-ens3f2
$ sudo vim /etc/sysconfig/network-scripts/ifcfg-ens3f3

ONBOOT=yes

Прагляд настроеных FCoE інтэрфейсаў, выснова каманды не павінен быць пусты.

$ sudo fcoeadm -i

Наступная настройка FCoE выконваецца як для звычайнага FC.

Далей варта налада сістэм і сеткі захоўвання – занаванне, SAN-хастоў, стварэнне і прэзентацыя тамоў/LUN'аў, пасля чаго сховішча можна падлучыць да ovirt-host'ам: Storage → Domains → New Domain.

Domain Function пакідаем Data, Storage Type – Fibre Channel, Host – любы, імя – напр., storNN-volMM.

Напэўна ваша сістэма захоўвання дапушчае падлучэнне не проста рэзерваванне шляхоў, але і балансаванне. Многія сучасныя сістэмы здольныя перадаваць дадзеныя па ўсіх шляхах аднолькава аптымальна (ALUA active / active).

Для ўключэння ўсіх шляхоў у актыўны стан, трэба наладзіць мультпасінг, пра гэта ў наступных артыкулах.

Настройка NFS і iSCSI выконваецца падобнай выявай.

Сховішча ISO вобразаў

Для ўсталёўкі АС спатрэбяцца іх усталявальныя файлы, часцей за ўсё даступныя ў выглядзе ISO выяў. Можна выкарыстоўваць убудаваны шлях, але для працы з выявамі ў oVirt распрацаваны адмысловы тып сховішчы – ISO, які можна нацэліць на NFS сервер. Дадаем яго:

Storage → Domains → New Domain,
Domain Function → ISO,
Export Path - напр., mynfs01.example.com:/exports/ovirt-iso (на момант падключэння тэчка павінна пусты, менеджэр павінен мець магчымасць пісаць у яе),
Name - напр., mynfs01-iso.

Для захоўвання выяў менеджэр створыць структуру
/exports/ovirt-iso/<some UUID>/images/11111111-1111-1111-1111-111111111111/

Калі на нашым NFS серверы ISO выявы ўжо ёсць, для эканоміі прасторы зручна замест капіявання файлаў прылінкаваць іх у гэтую тэчку.

Першая ВМ

На гэтым этапе ўжо можна стварыць першую віртуальную машыну, усталяваць на яе АС і прыкладнае ПЗ.

Compute → Virtual Machines → New

Для новай машыны паказаць імя (Name), стварыць кружэлку (Instance Images → Create) і падлучыць сеткавы інтэрфейс (Instantiate VM).

На баку кліента патрэбен сучасны браўзэр і SPICE кліент для ўзаемадзеяння з кансоллю.

Першая машына паспяхова запушчана. Аднак для больш поўнай працы сістэмы патрабуецца выканаць шэраг дадатковых налад, аб чым працягнем у наступных артыкулах.

Крыніца: habr.com

Дадаць каментар