6 ensèk sistèm amizan nan operasyon Kubernetes [ak solisyon yo]
Pandan ane yo nan sèvi ak Kubernetes nan pwodiksyon, nou te akimile anpil istwa enteresan sou ki jan pinèz nan divès eleman sistèm mennen nan konsekans dezagreyab ak / oswa enkonpreyansib ki afekte operasyon an nan resipyan ak gous. Nan atik sa a nou te fè yon seleksyon nan kèk nan sa yo ki pi komen oswa enteresan. Menm si ou pa janm gen chans pou rankontre sitiyasyon sa yo, li sou istwa kout detektif sa yo - espesyalman "premye men" - toujou enteresan, pa vre?...
Istwa 1. Supercronic ak Docker pandye
Sou youn nan grap yo, nou te resevwa detanzantan yon Docker nan frizè, ki te entèfere ak fonksyone nòmal gwoup la. An menm tan an, sa ki annapre yo te obsève nan mòso Docker yo:
level=error msg="containerd: start init process" error="exit status 2: "runtime/cgo: pthread_create failed: No space left on device
SIGABRT: abort
PC=0x7f31b811a428 m=0
goroutine 0 [idle]:
goroutine 1 [running]:
runtime.systemstack_switch() /usr/local/go/src/runtime/asm_amd64.s:252 fp=0xc420026768 sp=0xc420026760
runtime.main() /usr/local/go/src/runtime/proc.go:127 +0x6c fp=0xc4200267c0 sp=0xc420026768
runtime.goexit() /usr/local/go/src/runtime/asm_amd64.s:2086 +0x1 fp=0xc4200267c8 sp=0xc4200267c0
goroutine 17 [syscall, locked to thread]:
runtime.goexit() /usr/local/go/src/runtime/asm_amd64.s:2086 +0x1
…
Sa ki pi enterese nou nan erè sa a se mesaj la: pthread_create failed: No space left on device. Etid rapid dokiman eksplike ke Docker pa t 'kapab fouchèt yon pwosesis, ki se poukisa li detanzantan jele.
Nan siveyans, foto sa a koresponn ak sa k ap pase:
Li te tounen soti ke konpòtman sa a se yon konsekans gous la ap travay ak superkronik (yon sèvis piblik Go ke nou itilize pou kouri travay cron nan gous):
Pwoblèm nan se sa a: lè yon travay kouri nan supercronic, pwosesis la anjandre pa li pa ka sispann kòrèkteman, vire nan zonbi.
Note: Pou yo ka pi presi, pwosesis yo anjandre pa travay cron, men supercronic se pa yon sistèm init epi li pa ka "adopte" pwosesis ke pitit li yo anjandre. Lè siyal SIGHUP oswa SIGTERM yo leve, yo pa transmèt yo nan pwosesis timoun yo, sa ki lakòz pwosesis timoun yo pa sispann epi rete nan estati zonbi. Ou ka li plis sou tout bagay sa yo, pou egzanp, nan yon atik konsa.
Gen yon koup nan fason yo rezoud pwoblèm:
Kòm yon solisyon tanporè - ogmante kantite PID nan sistèm nan nan yon sèl pwen nan tan:
/proc/sys/kernel/pid_max (since Linux 2.5.34)
This file specifies the value at which PIDs wrap around (i.e., the value in this file is one greater than the maximum PID). PIDs greater than this value are not allo‐
cated; thus, the value in this file also acts as a system-wide limit on the total number of processes and threads. The default value for this file, 32768, results in the
same range of PIDs as on earlier kernels
Oswa lanse travay nan supercronic pa dirèkteman, men lè l sèvi avèk menm bagay la tini, ki se kapab mete fen nan pwosesis kòrèkteman epi yo pa anjandre zonbi.
Istwa 2. "Zonbi" lè w ap efase yon gwoup c
Kubelet te kòmanse konsome anpil CPU:
Pa gen moun ki pral renmen sa, se konsa nou ame tèt nou pèf epi yo te kòmanse fè fas ak pwoblèm nan. Rezilta yo nan ankèt la te jan sa a:
Kubelet depanse plis pase yon tyè nan tan CPU li yo rale done memwa nan tout cgroups:
Nan lis adrès devlopè nwayo yo ou ka jwenn diskisyon sou pwoblèm nan. Nan ti bout tan, pwen an desann nan sa a: divès dosye tmpfs ak lòt bagay ki sanble yo pa konplètman retire nan sistèm nan lè efase yon cgroup, sa yo rele memcg zonbi. Talè oswa pita yo pral efase nan kachèt paj la, men gen anpil memwa sou sèvè a ak nwayo a pa wè pwen nan gaspiye tan sou efase yo. Se poutèt sa yo kontinye anpile. Poukisa sa a menm rive? Sa a se yon sèvè ki gen djòb cron ki toujou ap kreye nouvo djòb, epi avèk yo nouvo gous. Kidonk, nouvo cgroups yo kreye pou resipyan ki ladan yo, ki byento efase.
Poukisa cAdvisor nan kubelet gaspiye anpil tan? Sa a se fasil wè ak ekzekisyon ki pi senp time cat /sys/fs/cgroup/memory/memory.stat. Si sou yon machin ki an sante operasyon an pran 0,01 segonn, Lè sa a, sou pwoblèm nan cron02 li pran 1,2 segonn. Bagay la se ke cAdvisor, ki li done ki soti nan sysfs trè dousman, eseye pran an kont memwa yo itilize nan cgroup zonbi.
Pou retire zonbi ak fòs, nou te eseye netwaye kachèt jan yo rekòmande nan LKML: sync; echo 3 > /proc/sys/vm/drop_caches, - men nwayo a te vin pi konplike ak fè aksidan machin nan.
Kisa pou fe? Pwoblèm nan ap rezoud (komèt, ak pou yon deskripsyon gade lage mesaj) mete ajou nwayo Linux la nan vèsyon 4.16.
Istwa 3. Systemd ak mòn li yo
Ankò, kubelet la ap konsome twòp resous sou kèk nœuds, men fwa sa a li konsome twòp memwa:
Li te tounen soti ke gen yon pwoblèm nan systemd yo itilize nan Ubuntu 16.04, epi li rive lè jere mòn yo kreye pou koneksyon. subPath soti nan ConfigMap oswa sekrè a. Apre gous la fini travay li sèvis systemd la ak mòn sèvis li yo rete nan sistèm. Apre yon tan, yon gwo kantite nan yo akimile. Gen menm pwoblèm sou sijè sa a:
#!/bin/bash
# we will work only on xenial
hostrelease="/etc/lsb-release-host"
test -f ${hostrelease} && grep xenial ${hostrelease} > /dev/null || exit 0
# sleeping max 30 minutes to dispense load on kube-nodes
sleep $((RANDOM % 1800))
stoppedCount=0
# counting actual subpath units in systemd
countBefore=$(systemctl list-units | grep subpath | grep "run-" | wc -l)
# let's go check each unit
for unit in $(systemctl list-units | grep subpath | grep "run-" | awk '{print $1}'); do
# finding description file for unit (to find out docker container, who born this unit)
DropFile=$(systemctl status ${unit} | grep Drop | awk -F': ' '{print $2}')
# reading uuid for docker container from description file
DockerContainerId=$(cat ${DropFile}/50-Description.conf | awk '{print $5}' | cut -d/ -f6)
# checking container status (running or not)
checkFlag=$(docker ps | grep -c ${DockerContainerId})
# if container not running, we will stop unit
if [[ ${checkFlag} -eq 0 ]]; then
echo "Stopping unit ${unit}"
# stoping unit in action
systemctl stop $unit
# just counter for logs
((stoppedCount++))
# logging current progress
echo "Stopped ${stoppedCount} systemd units out of ${countBefore}"
fi
done
... epi li kouri chak 5 minit lè l sèvi avèk supercronic mansyone deja. Dockerfile li yo sanble sa a:
Li te remake ke: si nou gen yon gous mete sou yon ne epi imaj li ponpe soti pou yon tan trè long, Lè sa a, yon lòt gous ki "frape" menm ne pral tou senpleman. pa kòmanse rale imaj la nan gous la nouvo. Olye de sa, li tann jiskaske imaj la nan gous anvan an rale. Kòm yon rezilta, yon gous ki te deja pwograme epi ki gen imaj ki te kapab telechaje nan jis yon minit pral fini nan estati a nan. containerCreating.
Evènman yo pral sanble yon bagay tankou sa a:
Normal Pulling 8m kubelet, ip-10-241-44-128.ap-northeast-1.compute.internal pulling image "registry.example.com/infra/openvpn/openvpn:master"
Li sanble ke yon sèl imaj ki soti nan yon rejis dousman ka bloke deplwaman pou chak ne.
Malerezman, pa gen anpil fason pou soti nan sitiyasyon an:
Eseye itilize Rejis Docker ou dirèkteman nan gwoup la oswa dirèkteman ak gwoup la (pa egzanp, GitLab Rejis, Nexus, elatriye);
Pandan operasyon an nan aplikasyon divès kalite, nou te rankontre tou yon sitiyasyon kote yon ne konplètman sispann aksesib: SSH pa reponn, tout demon siveyans tonbe, ak Lè sa a, pa gen anyen (oswa prèske pa gen anyen) anomali nan mòso bwa yo.
Mwen pral di w nan foto lè l sèvi avèk egzanp yon sèl ne kote MongoDB te fonksyone.
Sa a se sa anlè a sanble до aksidan:
Epi tankou sa a - apre aksidan:
Nan siveyans, gen tou yon so byen file, nan ki ne a sispann disponib:
Kidonk, nan Ekran yo li klè ke:
RAM sou machin nan tou pre fen;
Gen yon so byen file nan konsomasyon RAM, apre yo fin ki aksè a tout machin nan se sibitman enfim;
Yon gwo travay rive sou Mongo, ki fòse pwosesis DBMS yo sèvi ak plis memwa ak li aktivman nan disk.
Li sanble ke si Linux kouri soti nan memwa gratis (presyon memwa mete nan) epi pa gen okenn swap, Lè sa a до Lè asasen an OOM rive, yon aksyon balanse ka leve ant voye paj nan kachèt paj la epi ekri yo tounen sou disk. Sa a se fè pa kswapd, ki kouraz libere paj memwa anpil ke posib pou distribisyon ki vin apre.
Malerezman, ak yon gwo chaj I/O makonnen ak yon ti kantite memwa gratis, kswapd vin anbouteyaj nan tout sistèm nan, paske yo mare ak li tout alokasyon (paj defo) nan paj memwa nan sistèm nan. Sa a ka kontinye pou yon tan trè lontan si pwosesis yo pa vle sèvi ak memwa ankò, men yo fiks nan kwen an menm nan gwo twou san fon an OOM-asasen.
Kesyon natirèl la se: poukisa asasen an OOM vini an reta? Nan iterasyon aktyèl li yo, asasen an OOM trè estipid: li pral touye pwosesis la sèlman lè tantativ pou asiyen yon paj memwa echwe, sa vle di. si fòt paj la echwe. Sa a pa rive pou yon bon bout tan, paske kswapd kouraz libere paj memwa, jete kachèt paj la (tout disk I/O nan sistèm nan, an reyalite) tounen nan disk. Nan plis detay, ak yon deskripsyon etap ki nesesè yo elimine pwoblèm sa yo nan nwayo a, ou ka li isit la.
Nan kèk grap, kote gen reyèlman anpil gous opere, nou te kòmanse remake ke pi fò nan yo "kwoke" pou yon tan trè long nan eta a. Pending, byenke resipyan yo Docker tèt yo deja kouri sou nœuds yo epi yo ka travay avèk manyèlman.
Anplis, nan describe pa gen anyen ki mal:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Scheduled 1m default-scheduler Successfully assigned sphinx-0 to ss-dev-kub07
Normal SuccessfulAttachVolume 1m attachdetach-controller AttachVolume.Attach succeeded for volume "pvc-6aaad34f-ad10-11e8-a44c-52540035a73b"
Normal SuccessfulMountVolume 1m kubelet, ss-dev-kub07 MountVolume.SetUp succeeded for volume "sphinx-config"
Normal SuccessfulMountVolume 1m kubelet, ss-dev-kub07 MountVolume.SetUp succeeded for volume "default-token-fzcsf"
Normal SuccessfulMountVolume 49s (x2 over 51s) kubelet, ss-dev-kub07 MountVolume.SetUp succeeded for volume "pvc-6aaad34f-ad10-11e8-a44c-52540035a73b"
Normal Pulled 43s kubelet, ss-dev-kub07 Container image "registry.example.com/infra/sphinx-exporter/sphinx-indexer:v1" already present on machine
Normal Created 43s kubelet, ss-dev-kub07 Created container
Normal Started 43s kubelet, ss-dev-kub07 Started container
Normal Pulled 43s kubelet, ss-dev-kub07 Container image "registry.example.com/infra/sphinx/sphinx:v1" already present on machine
Normal Created 42s kubelet, ss-dev-kub07 Created container
Normal Started 42s kubelet, ss-dev-kub07 Started container
Apre kèk fouye, nou te fè sipozisyon ke kubelet la tou senpleman pa gen tan voye tout enfòmasyon sou eta a nan gous yo ak tès vivan / preparasyon pou sèvè API a.
Apre yo fin etidye èd, nou jwenn paramèt sa yo:
--kube-api-qps - QPS to use while talking with kubernetes apiserver (default 5)
--kube-api-burst - Burst to use while talking with kubernetes apiserver (default 10)
--event-qps - If > 0, limit event creations per second to this value. If 0, unlimited. (default 5)
--event-burst - Maximum size of a bursty event records, temporarily allows event records to burst to this number, while still not exceeding event-qps. Only used if --event-qps > 0 (default 10)
--registry-qps - If > 0, limit registry pull QPS to this value.
--registry-burst - Maximum size of bursty pulls, temporarily allows pulls to burst to this number, while still not exceeding registry-qps. Only used if --registry-qps > 0 (default 10)
Jan yo wè, valè default yo byen piti, ak nan 90% yo kouvri tout bezwen ... Sepandan, nan ka nou an sa a pa t 'ase. Se poutèt sa, nou mete valè sa yo:
... ak rekòmanse kubelets yo, apre sa nou te wè foto sa a nan graf yo nan apèl nan sèvè API a:
... e wi, tout bagay te kòmanse vole!
PS
Pou èd yo nan kolekte pinèz ak prepare atik sa a, mwen eksprime gwo rekonesans mwen an bay anpil enjenyè nan konpayi nou an, epi espesyalman nan kòlèg mwen nan ekip R&D nou an Andrey Klimentyev (zuzzas).