ProHoster > Blogi > Haldamine > 6 meelelahutuslikku süsteemiviga Kubernetese töös [ja nende lahendus]
6 meelelahutuslikku süsteemiviga Kubernetese töös [ja nende lahendus]
Kubernetese tootmises kasutamise aastate jooksul on meile kogunenud palju huvitavaid lugusid selle kohta, kuidas erinevate süsteemikomponentide vead viisid ebameeldivate ja/või arusaamatute tagajärgedeni, mis mõjutavad konteinerite ja kaunade tööd. Selles artiklis oleme koostanud mõned kõige levinumad või huvitavamad. Isegi kui teil pole kunagi õnne sellistesse olukordadesse sattuda, on selliste lühikeste detektiivilugude lugemine - eriti "esimesest käest" - alati lõbus, kas pole? ..
Lugu 1. Supercronic ja kinni jäänud Docker
Ühel klastril saime perioodiliselt "rippuva" Dockeri, mis segas klastri normaalset toimimist. Samal ajal täheldati Dockeri logides järgmist
level=error msg="containerd: start init process" error="exit status 2: "runtime/cgo: pthread_create failed: No space left on device
SIGABRT: abort
PC=0x7f31b811a428 m=0
goroutine 0 [idle]:
goroutine 1 [running]:
runtime.systemstack_switch() /usr/local/go/src/runtime/asm_amd64.s:252 fp=0xc420026768 sp=0xc420026760
runtime.main() /usr/local/go/src/runtime/proc.go:127 +0x6c fp=0xc4200267c0 sp=0xc420026768
runtime.goexit() /usr/local/go/src/runtime/asm_amd64.s:2086 +0x1 fp=0xc4200267c8 sp=0xc4200267c0
goroutine 17 [syscall, locked to thread]:
runtime.goexit() /usr/local/go/src/runtime/asm_amd64.s:2086 +0x1
…
Selle vea puhul huvitab meid enim sõnum: pthread_create failed: No space left on device. Põgus uurimus dokumentatsioon selgitas, et Docker ei saa protsessi hargistada, mistõttu see perioodiliselt "ripub".
Järelevalve puhul vastab toimuv järgmisele pildile:
Sarnast olukorda täheldatakse ka teistes sõlmedes:
Probleem on järgmine: kui ülesanne käivitatakse superkroonilises, käivitab see selle protsessi ei saa õigesti täita, muutudes zombi.
Märkus: Täpsemalt, protsesse tekitavad cron-ülesanded, kuid superkrooniline süsteem ei ole algsüsteem ega saa "omaks võtta" protsesse, mida selle lapsed tekitasid. Kui ilmnevad SIGHUP või SIGTERM signaalid, ei edastata neid alamprotsessidele, mistõttu alamprotsessid ei lõpe, jäädes zombi staatusesse. Kõige selle kohta saad täpsemalt lugeda näiteks selline artikkel.
Probleemide lahendamiseks on paar võimalust:
Ajutise lahendusena suurendage PID-de arvu süsteemis ühel ajahetkel.
/proc/sys/kernel/pid_max (since Linux 2.5.34)
This file specifies the value at which PIDs wrap around (i.e., the value in this file is one greater than the maximum PID). PIDs greater than this value are not allo‐
cated; thus, the value in this file also acts as a system-wide limit on the total number of processes and threads. The default value for this file, 32768, results in the
same range of PIDs as on earlier kernels
Või tehke ülesannete käivitamine supercronicus mitte otse, vaid sedasama kasutades tini, mis suudab protsesse graatsiliselt lõpetada ja mitte zombisid kudeda.
Lugu 2. "Zombid" cgroupi kustutamisel
Kubelet hakkas palju protsessorit kulutama:
See ei meeldi kellelegi, nii et me relvastasime end täiuslik ja hakkas probleemiga tegelema. Uurimise tulemused olid järgmised:
Kubelet kulutab rohkem kui kolmandiku CPU ajast mäluandmete tõmbamisele kõigist c-gruppidest:
Kerneli arendajate meililistist leiate probleemi arutelu. Lühidalt öeldes on asi selles erinevaid tmpfs-faile ja muid sarnaseid asju ei eemaldata süsteemist täielikult cgrupi kustutamisel nn memcg zombi. Varem või hiljem kustutatakse need siiski lehe vahemälust, aga serveris on palju mälu ja kernel ei näe mõtet nende kustutamisele aega raisata. Nii et neid koguneb. Miks see üldse juhtub? See on cron-i töödega server, mis loob pidevalt uusi töökohti ja koos nendega uusi kaunasid. Seega luuakse neis olevate konteinerite jaoks uued c-rühmad, mis peagi kustutatakse.
Miks kulutab kubeleti cAdvisor nii palju aega? Seda on lihtne näha kõige lihtsama teostuse abil time cat /sys/fs/cgroup/memory/memory.stat. Kui tervel masinal võtab operatsioon aega 0,01 sekundit, siis probleemse cron02 puhul 1,2 sekundit. Asi on selles, et cAdvisor, mis loeb sysf-idest väga aeglaselt andmeid, püüab ka zombie cgroupides kasutatava mäluga arvestada.
Zombide sunniviisiliseks eemaldamiseks proovisime vahemälu tühjendada, nagu soovitas LKML: sync; echo 3 > /proc/sys/vm/drop_caches, - aga südamik osutus keerulisemaks ja riputas auto üles.
Mida teha? Probleemi lahendataksepühendumaja vaadake kirjeldust vabasta sõnum), värskendades Linuxi kerneli versioonile 4.16.
Lugu 3. Systemd ja selle kinnitus
Jällegi kulutab kubelet mõnel sõlmel liiga palju ressursse, kuid seekord on see rohkem mälu:
Selgus, et probleem on Ubuntu 16.04-s kasutatava süsteemiga ja see ilmneb ühenduse loomiseks loodud kinnituste haldamisel subPath alates ConfigMap'ov või secret'ov. Pärast poti sulgemist systemd teenus ja selle teenuse mount jäävad süsteemis. Aja jooksul koguneb neid tohutult palju. Sellel teemal on isegi probleeme:
#!/bin/bash
# we will work only on xenial
hostrelease="/etc/lsb-release-host"
test -f ${hostrelease} && grep xenial ${hostrelease} > /dev/null || exit 0
# sleeping max 30 minutes to dispense load on kube-nodes
sleep $((RANDOM % 1800))
stoppedCount=0
# counting actual subpath units in systemd
countBefore=$(systemctl list-units | grep subpath | grep "run-" | wc -l)
# let's go check each unit
for unit in $(systemctl list-units | grep subpath | grep "run-" | awk '{print $1}'); do
# finding description file for unit (to find out docker container, who born this unit)
DropFile=$(systemctl status ${unit} | grep Drop | awk -F': ' '{print $2}')
# reading uuid for docker container from description file
DockerContainerId=$(cat ${DropFile}/50-Description.conf | awk '{print $5}' | cut -d/ -f6)
# checking container status (running or not)
checkFlag=$(docker ps | grep -c ${DockerContainerId})
# if container not running, we will stop unit
if [[ ${checkFlag} -eq 0 ]]; then
echo "Stopping unit ${unit}"
# stoping unit in action
systemctl stop $unit
# just counter for logs
((stoppedCount++))
# logging current progress
echo "Stopped ${stoppedCount} systemd units out of ${countBefore}"
fi
done
... ja see töötab iga 5 minuti järel eelnevalt mainitud supercronicu abil. Selle Dockerfile näeb välja selline:
Täheldati, et: kui meil on sõlme asetatud kaun ja selle pilt pumbatakse väga kaua välja, siis teine kaun, mis "lööb" samale sõlmele lihtsalt ei hakka uut podpilti tõmbama. Selle asemel ootab see eelmise kausta kujutise tõmbamist. Tulemuseks on, et juba planeeritud pod, mille pilti sai alla laadida vaid minutiga, jääb pikaks ajaks staatusesse. containerCreating.
Sündmused näevad välja umbes sellised:
Normal Pulling 8m kubelet, ip-10-241-44-128.ap-northeast-1.compute.internal pulling image "registry.example.com/infra/openvpn/openvpn:master"
Selgub, et üks pilt aeglasest registrist võib juurutamise blokeerida sõlme juurde.
Kahjuks pole olukorrast palju väljapääsu:
Proovige kasutada oma Dockeri registrit otse klastris või otse koos klastriga (nt GitLabi register, Nexus jne);
Kasutage selliseid kommunaalteenuseid nagu kraken.
Lugu 5. Rippuvad sõlmed mälupuuduse tõttu
Erinevate rakenduste töötamise ajal saime ka olukorra, kus sõlm lakkab täielikult olemast: SSH ei reageeri, kõik jälgimisdeemonid kukuvad välja ja siis pole logides midagi (või peaaegu mitte midagi) ebanormaalset.
Ma räägin teile piltidel ühe sõlme näitel, kus MongoDB töötas.
Selline näeb välja atop kuni õnnetused:
Ja niimoodi - pärast õnnetused:
Jälgimisel toimub ka järsk hüpe, mille korral sõlm lakkab olemast:
Nii et ekraanipiltidelt näete järgmist:
Masina RAM on peaaegu otsa saamas;
RAM-i tarbimine hüppab järsult, pärast mida on juurdepääs kogu masinale järsult keelatud;
Mongole saabub suur ülesanne, mille tõttu DBMS-i protsess kasutab rohkem mälu ja loeb aktiivselt kettalt.
Selgub, et kui Linuxil saab vaba mälu otsa (mälusurve tekib) ja vahetust pole, siis kuni OOM-i tapja saabudes võib tekkida tasakaal lehtede vahemällu viskamise ja kettale tagasi kirjutamise vahel. Sellega tegeleb kswapd, mis vabastab vapralt võimalikult palju mälulehti hilisemaks jaotamiseks.
Kahjuks suure I/O koormuse ja vähese vaba mäluga kswapd muutub kogu süsteemi kitsaskohakssest nad on sellega seotud kõik mälulehtede eraldamine (lehevead) süsteemis. See võib kesta väga kaua, kui protsessid ei taha enam mälu kasutada, vaid fikseeruvad OOM-i tapjakuristiku kõige servale.
Küsimus on loomulik: miks OOM-i tapja nii hilja tuleb? Oma praeguses iteratsioonis on OOM-killer äärmiselt rumal: see tapab protsessi alles siis, kui mälulehe eraldamise katse ebaõnnestub, s.t. kui lehe viga möödub veaga. Seda ei juhtu piisavalt kaua, sest kswapd vabastab vapralt lehekülgi mälust, loputades lehe vahemälu (sisuliselt kogu süsteemi ketta I/O) tagasi kettale. Üksikasjalikumalt saate lugeda selliste tuumaprobleemide kõrvaldamiseks vajalike sammude kirjeldust siin.
Mõnes klastris, kus töötab tõesti palju kaunasid, hakkasime märkama, et enamik neist ripub olekus väga pikka aega. Pending, kuigi Dockeri konteinerid ise juba töötavad sõlmedes ja saate nendega käsitsi töötada.
Veelgi enam, sisse describe pole viga midagi:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Scheduled 1m default-scheduler Successfully assigned sphinx-0 to ss-dev-kub07
Normal SuccessfulAttachVolume 1m attachdetach-controller AttachVolume.Attach succeeded for volume "pvc-6aaad34f-ad10-11e8-a44c-52540035a73b"
Normal SuccessfulMountVolume 1m kubelet, ss-dev-kub07 MountVolume.SetUp succeeded for volume "sphinx-config"
Normal SuccessfulMountVolume 1m kubelet, ss-dev-kub07 MountVolume.SetUp succeeded for volume "default-token-fzcsf"
Normal SuccessfulMountVolume 49s (x2 over 51s) kubelet, ss-dev-kub07 MountVolume.SetUp succeeded for volume "pvc-6aaad34f-ad10-11e8-a44c-52540035a73b"
Normal Pulled 43s kubelet, ss-dev-kub07 Container image "registry.example.com/infra/sphinx-exporter/sphinx-indexer:v1" already present on machine
Normal Created 43s kubelet, ss-dev-kub07 Created container
Normal Started 43s kubelet, ss-dev-kub07 Started container
Normal Pulled 43s kubelet, ss-dev-kub07 Container image "registry.example.com/infra/sphinx/sphinx:v1" already present on machine
Normal Created 42s kubelet, ss-dev-kub07 Created container
Normal Started 42s kubelet, ss-dev-kub07 Started container
Peale kaevamist eeldasime, et kubeletil pole lihtsalt aega kogu infot kaunade oleku, elavuse/valmiduse näidiste kohta API serverisse saata.
Ja abi uurides leidsime järgmised parameetrid:
--kube-api-qps - QPS to use while talking with kubernetes apiserver (default 5)
--kube-api-burst - Burst to use while talking with kubernetes apiserver (default 10)
--event-qps - If > 0, limit event creations per second to this value. If 0, unlimited. (default 5)
--event-burst - Maximum size of a bursty event records, temporarily allows event records to burst to this number, while still not exceeding event-qps. Only used if --event-qps > 0 (default 10)
--registry-qps - If > 0, limit registry pull QPS to this value.
--registry-burst - Maximum size of bursty pulls, temporarily allows pulls to burst to this number, while still not exceeding registry-qps. Only used if --registry-qps > 0 (default 10)
Nagu nähtud, vaikeväärtused on üsna väikesed, ja 90% katavad need kõik vajadused... Meie puhul aga sellest ei piisanud. Seetõttu määrame järgmised väärtused:
... ja taaskäivitas kubeletid, misjärel nägime API serverile juurdepääsu graafikutel järgmist pilti:
... ja jah, kõik hakkas lendama!
PS
Abi eest vigade kogumisel ja artikli ettevalmistamisel avaldan sügavat tänu meie ettevõtte arvukatele inseneridele ja eriti meie kolleegile meie uurimis- ja arendusmeeskonnast Andrei Klimentjevile (zuzzad).