6 meelelahutuslikku süsteemiviga Kubernetese töös [ja nende lahendus]

6 meelelahutuslikku süsteemiviga Kubernetese töös [ja nende lahendus]

Kubernetese tootmises kasutamise aastate jooksul on meile kogunenud palju huvitavaid lugusid selle kohta, kuidas erinevate süsteemikomponentide vead viisid ebameeldivate ja/või arusaamatute tagajärgedeni, mis mõjutavad konteinerite ja kaunade tööd. Selles artiklis oleme koostanud mõned kõige levinumad või huvitavamad. Isegi kui teil pole kunagi õnne sellistesse olukordadesse sattuda, on selliste lühikeste detektiivilugude lugemine - eriti "esimesest käest" - alati lõbus, kas pole? ..

Lugu 1. Supercronic ja kinni jäänud Docker

Ühel klastril saime perioodiliselt "rippuva" Dockeri, mis segas klastri normaalset toimimist. Samal ajal täheldati Dockeri logides järgmist

level=error msg="containerd: start init process" error="exit status 2: "runtime/cgo: pthread_create failed: No space left on device
SIGABRT: abort
PC=0x7f31b811a428 m=0

goroutine 0 [idle]:

goroutine 1 [running]:
runtime.systemstack_switch() /usr/local/go/src/runtime/asm_amd64.s:252 fp=0xc420026768 sp=0xc420026760
runtime.main() /usr/local/go/src/runtime/proc.go:127 +0x6c fp=0xc4200267c0 sp=0xc420026768
runtime.goexit() /usr/local/go/src/runtime/asm_amd64.s:2086 +0x1 fp=0xc4200267c8 sp=0xc4200267c0

goroutine 17 [syscall, locked to thread]:
runtime.goexit() /usr/local/go/src/runtime/asm_amd64.s:2086 +0x1

…

Selle vea puhul huvitab meid enim sõnum: pthread_create failed: No space left on device. Põgus uurimus dokumentatsioon selgitas, et Docker ei saa protsessi hargistada, mistõttu see perioodiliselt "ripub".

Järelevalve puhul vastab toimuv järgmisele pildile:

6 meelelahutuslikku süsteemiviga Kubernetese töös [ja nende lahendus]

Sarnast olukorda täheldatakse ka teistes sõlmedes:

6 meelelahutuslikku süsteemiviga Kubernetese töös [ja nende lahendus]

6 meelelahutuslikku süsteemiviga Kubernetese töös [ja nende lahendus]

Samadel sõlmedel näeme:

root@kube-node-1 ~ # ps auxfww | grep curl -c
19782
root@kube-node-1 ~ # ps auxfww | grep curl | head
root     16688  0.0  0.0      0     0 ?        Z    Feb06   0:00      |       _ [curl] <defunct>
root     17398  0.0  0.0      0     0 ?        Z    Feb06   0:00      |       _ [curl] <defunct>
root     16852  0.0  0.0      0     0 ?        Z    Feb06   0:00      |       _ [curl] <defunct>
root      9473  0.0  0.0      0     0 ?        Z    Feb06   0:00      |       _ [curl] <defunct>
root      4664  0.0  0.0      0     0 ?        Z    Feb06   0:00      |       _ [curl] <defunct>
root     30571  0.0  0.0      0     0 ?        Z    Feb06   0:00      |       _ [curl] <defunct>
root     24113  0.0  0.0      0     0 ?        Z    Feb06   0:00      |       _ [curl] <defunct>
root     16475  0.0  0.0      0     0 ?        Z    Feb06   0:00      |       _ [curl] <defunct>
root      7176  0.0  0.0      0     0 ?        Z    Feb06   0:00      |       _ [curl] <defunct>
root      1090  0.0  0.0      0     0 ?        Z    Feb06   0:00      |       _ [curl] <defunct>

Selgus, et see käitumine on kauna töö tagajärg superkrooniline (Utiliit Go, mida kasutame cron-tööde käitamiseks kaustades):

 _ docker-containerd-shim 833b60bb9ff4c669bb413b898a5fd142a57a21695e5dc42684235df907825567 /var/run/docker/libcontainerd/833b60bb9ff4c669bb413b898a5fd142a57a21695e5dc42684235df907825567 docker-runc
|   _ /usr/local/bin/supercronic -json /crontabs/cron
|       _ /usr/bin/newrelic-daemon --agent --pidfile /var/run/newrelic-daemon.pid --logfile /dev/stderr --port /run/newrelic.sock --tls --define utilization.detect_aws=true --define utilization.detect_azure=true --define utilization.detect_gcp=true --define utilization.detect_pcf=true --define utilization.detect_docker=true
|       |   _ /usr/bin/newrelic-daemon --agent --pidfile /var/run/newrelic-daemon.pid --logfile /dev/stderr --port /run/newrelic.sock --tls --define utilization.detect_aws=true --define utilization.detect_azure=true --define utilization.detect_gcp=true --define utilization.detect_pcf=true --define utilization.detect_docker=true -no-pidfile
|       _ [newrelic-daemon] <defunct>
|       _ [curl] <defunct>
|       _ [curl] <defunct>
|       _ [curl] <defunct>
…

Probleem on järgmine: kui ülesanne käivitatakse superkroonilises, käivitab see selle protsessi ei saa õigesti täita, muutudes zombi.

Märkus: Täpsemalt, protsesse tekitavad cron-ülesanded, kuid superkrooniline süsteem ei ole algsüsteem ega saa "omaks võtta" protsesse, mida selle lapsed tekitasid. Kui ilmnevad SIGHUP või SIGTERM signaalid, ei edastata neid alamprotsessidele, mistõttu alamprotsessid ei lõpe, jäädes zombi staatusesse. Kõige selle kohta saad täpsemalt lugeda näiteks selline artikkel.

Probleemide lahendamiseks on paar võimalust:

  1. Ajutise lahendusena suurendage PID-de arvu süsteemis ühel ajahetkel.
           /proc/sys/kernel/pid_max (since Linux 2.5.34)
                  This file specifies the value at which PIDs wrap around (i.e., the value in this file is one greater than the maximum PID).  PIDs greater than this  value  are  not  allo‐
                  cated;  thus, the value in this file also acts as a system-wide limit on the total number of processes and threads.  The default value for this file, 32768, results in the
                  same range of PIDs as on earlier kernels
  2. Või tehke ülesannete käivitamine supercronicus mitte otse, vaid sedasama kasutades tini, mis suudab protsesse graatsiliselt lõpetada ja mitte zombisid kudeda.

Lugu 2. "Zombid" cgroupi kustutamisel

Kubelet hakkas palju protsessorit kulutama:

6 meelelahutuslikku süsteemiviga Kubernetese töös [ja nende lahendus]

See ei meeldi kellelegi, nii et me relvastasime end täiuslik ja hakkas probleemiga tegelema. Uurimise tulemused olid järgmised:

  • Kubelet kulutab rohkem kui kolmandiku CPU ajast mäluandmete tõmbamisele kõigist c-gruppidest:

    6 meelelahutuslikku süsteemiviga Kubernetese töös [ja nende lahendus]

  • Kerneli arendajate meililistist leiate probleemi arutelu. Lühidalt öeldes on asi selles erinevaid tmpfs-faile ja muid sarnaseid asju ei eemaldata süsteemist täielikult cgrupi kustutamisel nn memcg zombi. Varem või hiljem kustutatakse need siiski lehe vahemälust, aga serveris on palju mälu ja kernel ei näe mõtet nende kustutamisele aega raisata. Nii et neid koguneb. Miks see üldse juhtub? See on cron-i töödega server, mis loob pidevalt uusi töökohti ja koos nendega uusi kaunasid. Seega luuakse neis olevate konteinerite jaoks uued c-rühmad, mis peagi kustutatakse.
  • Miks kulutab kubeleti cAdvisor nii palju aega? Seda on lihtne näha kõige lihtsama teostuse abil time cat /sys/fs/cgroup/memory/memory.stat. Kui tervel masinal võtab operatsioon aega 0,01 sekundit, siis probleemse cron02 puhul 1,2 sekundit. Asi on selles, et cAdvisor, mis loeb sysf-idest väga aeglaselt andmeid, püüab ka zombie cgroupides kasutatava mäluga arvestada.
  • Zombide sunniviisiliseks eemaldamiseks proovisime vahemälu tühjendada, nagu soovitas LKML: sync; echo 3 > /proc/sys/vm/drop_caches, - aga südamik osutus keerulisemaks ja riputas auto üles.

Mida teha? Probleemi lahendataksepühendumaja vaadake kirjeldust vabasta sõnum), värskendades Linuxi kerneli versioonile 4.16.

Lugu 3. Systemd ja selle kinnitus

Jällegi kulutab kubelet mõnel sõlmel liiga palju ressursse, kuid seekord on see rohkem mälu:

6 meelelahutuslikku süsteemiviga Kubernetese töös [ja nende lahendus]

Selgus, et probleem on Ubuntu 16.04-s kasutatava süsteemiga ja see ilmneb ühenduse loomiseks loodud kinnituste haldamisel subPath alates ConfigMap'ov või secret'ov. Pärast poti sulgemist systemd teenus ja selle teenuse mount jäävad süsteemis. Aja jooksul koguneb neid tohutult palju. Sellel teemal on isegi probleeme:

  1. #5916;
  2. kubernetes#57345.

... millest viimases viitavad nad PR-le in systemd: #7811 (probleem süsteemis - #7798).

Probleem ei ole enam Ubuntu versioonis 18.04, kuid kui soovite jätkata Ubuntu 16.04 kasutamist, võib meie selle teema lahendus olla kasulik.

Niisiis, oleme teinud järgmise DaemonSeti:

---
apiVersion: extensions/v1beta1
kind: DaemonSet
metadata:
  labels:
    app: systemd-slices-cleaner
  name: systemd-slices-cleaner
  namespace: kube-system
spec:
  updateStrategy:
    type: RollingUpdate
  selector:
    matchLabels:
      app: systemd-slices-cleaner
  template:
    metadata:
      labels:
        app: systemd-slices-cleaner
    spec:
      containers:
      - command:
        - /usr/local/bin/supercronic
        - -json
        - /app/crontab
        Image: private-registry.org/systemd-slices-cleaner/systemd-slices-cleaner:v0.1.0
        imagePullPolicy: Always
        name: systemd-slices-cleaner
        resources: {}
        securityContext:
          privileged: true
        volumeMounts:
        - name: systemd
          mountPath: /run/systemd/private
        - name: docker
          mountPath: /run/docker.sock
        - name: systemd-etc
          mountPath: /etc/systemd
        - name: systemd-run
          mountPath: /run/systemd/system/
        - name: lsb-release
          mountPath: /etc/lsb-release-host
      imagePullSecrets:
      - name: antiopa-registry
      priorityClassName: cluster-low
      tolerations:
      - operator: Exists
      volumes:
      - name: systemd
        hostPath:
          path: /run/systemd/private
      - name: docker
        hostPath:
          path: /run/docker.sock
      - name: systemd-etc
        hostPath:
          path: /etc/systemd
      - name: systemd-run
        hostPath:
          path: /run/systemd/system/
      - name: lsb-release
        hostPath:
          path: /etc/lsb-release

... ja see kasutab seda skripti:

#!/bin/bash

# we will work only on xenial
hostrelease="/etc/lsb-release-host"
test -f ${hostrelease} && grep xenial ${hostrelease} > /dev/null || exit 0

# sleeping max 30 minutes to dispense load on kube-nodes
sleep $((RANDOM % 1800))

stoppedCount=0
# counting actual subpath units in systemd
countBefore=$(systemctl list-units | grep subpath | grep "run-" | wc -l)
# let's go check each unit
for unit in $(systemctl list-units | grep subpath | grep "run-" | awk '{print $1}'); do
  # finding description file for unit (to find out docker container, who born this unit)
  DropFile=$(systemctl status ${unit} | grep Drop | awk -F': ' '{print $2}')
  # reading uuid for docker container from description file
  DockerContainerId=$(cat ${DropFile}/50-Description.conf | awk '{print $5}' | cut -d/ -f6)
  # checking container status (running or not)
  checkFlag=$(docker ps | grep -c ${DockerContainerId})
  # if container not running, we will stop unit
  if [[ ${checkFlag} -eq 0 ]]; then
    echo "Stopping unit ${unit}"
    # stoping unit in action
    systemctl stop $unit
    # just counter for logs
    ((stoppedCount++))
    # logging current progress
    echo "Stopped ${stoppedCount} systemd units out of ${countBefore}"
  fi
done

... ja see töötab iga 5 minuti järel eelnevalt mainitud supercronicu abil. Selle Dockerfile näeb välja selline:

FROM ubuntu:16.04
COPY rootfs /
WORKDIR /app
RUN apt-get update && 
    apt-get upgrade -y && 
    apt-get install -y gnupg curl apt-transport-https software-properties-common wget
RUN add-apt-repository "deb [arch=amd64] https://download.docker.com/linux/ubuntu xenial stable" && 
    curl -fsSL https://download.docker.com/linux/ubuntu/gpg | apt-key add - && 
    apt-get update && 
    apt-get install -y docker-ce=17.03.0*
RUN wget https://github.com/aptible/supercronic/releases/download/v0.1.6/supercronic-linux-amd64 -O 
    /usr/local/bin/supercronic && chmod +x /usr/local/bin/supercronic
ENTRYPOINT ["/bin/bash", "-c", "/usr/local/bin/supercronic -json /app/crontab"]

4. lugu: Samaaegsus Pod Planeerimises

Täheldati, et: kui meil on sõlme asetatud kaun ja selle pilt pumbatakse väga kaua välja, siis teine ​​kaun, mis "lööb" samale sõlmele lihtsalt ei hakka uut podpilti tõmbama. Selle asemel ootab see eelmise kausta kujutise tõmbamist. Tulemuseks on, et juba planeeritud pod, mille pilti sai alla laadida vaid minutiga, jääb pikaks ajaks staatusesse. containerCreating.

Sündmused näevad välja umbes sellised:

Normal  Pulling    8m    kubelet, ip-10-241-44-128.ap-northeast-1.compute.internal  pulling image "registry.example.com/infra/openvpn/openvpn:master"

Selgub, et üks pilt aeglasest registrist võib juurutamise blokeerida sõlme juurde.

Kahjuks pole olukorrast palju väljapääsu:

  1. Proovige kasutada oma Dockeri registrit otse klastris või otse koos klastriga (nt GitLabi register, Nexus jne);
  2. Kasutage selliseid kommunaalteenuseid nagu kraken.

Lugu 5. Rippuvad sõlmed mälupuuduse tõttu

Erinevate rakenduste töötamise ajal saime ka olukorra, kus sõlm lakkab täielikult olemast: SSH ei reageeri, kõik jälgimisdeemonid kukuvad välja ja siis pole logides midagi (või peaaegu mitte midagi) ebanormaalset.

Ma räägin teile piltidel ühe sõlme näitel, kus MongoDB töötas.

Selline näeb välja atop kuni õnnetused:

6 meelelahutuslikku süsteemiviga Kubernetese töös [ja nende lahendus]

Ja niimoodi - pärast õnnetused:

6 meelelahutuslikku süsteemiviga Kubernetese töös [ja nende lahendus]

Jälgimisel toimub ka järsk hüpe, mille korral sõlm lakkab olemast:

6 meelelahutuslikku süsteemiviga Kubernetese töös [ja nende lahendus]

Nii et ekraanipiltidelt näete järgmist:

  1. Masina RAM on peaaegu otsa saamas;
  2. RAM-i tarbimine hüppab järsult, pärast mida on juurdepääs kogu masinale järsult keelatud;
  3. Mongole saabub suur ülesanne, mille tõttu DBMS-i protsess kasutab rohkem mälu ja loeb aktiivselt kettalt.

Selgub, et kui Linuxil saab vaba mälu otsa (mälusurve tekib) ja vahetust pole, siis kuni OOM-i tapja saabudes võib tekkida tasakaal lehtede vahemällu viskamise ja kettale tagasi kirjutamise vahel. Sellega tegeleb kswapd, mis vabastab vapralt võimalikult palju mälulehti hilisemaks jaotamiseks.

Kahjuks suure I/O koormuse ja vähese vaba mäluga kswapd muutub kogu süsteemi kitsaskohakssest nad on sellega seotud kõik mälulehtede eraldamine (lehevead) süsteemis. See võib kesta väga kaua, kui protsessid ei taha enam mälu kasutada, vaid fikseeruvad OOM-i tapjakuristiku kõige servale.

Küsimus on loomulik: miks OOM-i tapja nii hilja tuleb? Oma praeguses iteratsioonis on OOM-killer äärmiselt rumal: see tapab protsessi alles siis, kui mälulehe eraldamise katse ebaõnnestub, s.t. kui lehe viga möödub veaga. Seda ei juhtu piisavalt kaua, sest kswapd vabastab vapralt lehekülgi mälust, loputades lehe vahemälu (sisuliselt kogu süsteemi ketta I/O) tagasi kettale. Üksikasjalikumalt saate lugeda selliste tuumaprobleemide kõrvaldamiseks vajalike sammude kirjeldust siin.

See käitumine peaks paranema Linux 4.6+ tuumaga.

6. lugu. Kaunad jäävad ootelolekusse kinni

Mõnes klastris, kus töötab tõesti palju kaunasid, hakkasime märkama, et enamik neist ripub olekus väga pikka aega. Pending, kuigi Dockeri konteinerid ise juba töötavad sõlmedes ja saate nendega käsitsi töötada.

Veelgi enam, sisse describe pole viga midagi:

  Type    Reason                  Age                From                     Message
  ----    ------                  ----               ----                     -------
  Normal  Scheduled               1m                 default-scheduler        Successfully assigned sphinx-0 to ss-dev-kub07
  Normal  SuccessfulAttachVolume  1m                 attachdetach-controller  AttachVolume.Attach succeeded for volume "pvc-6aaad34f-ad10-11e8-a44c-52540035a73b"
  Normal  SuccessfulMountVolume   1m                 kubelet, ss-dev-kub07    MountVolume.SetUp succeeded for volume "sphinx-config"
  Normal  SuccessfulMountVolume   1m                 kubelet, ss-dev-kub07    MountVolume.SetUp succeeded for volume "default-token-fzcsf"
  Normal  SuccessfulMountVolume   49s (x2 over 51s)  kubelet, ss-dev-kub07    MountVolume.SetUp succeeded for volume "pvc-6aaad34f-ad10-11e8-a44c-52540035a73b"
  Normal  Pulled                  43s                kubelet, ss-dev-kub07    Container image "registry.example.com/infra/sphinx-exporter/sphinx-indexer:v1" already present on machine
  Normal  Created                 43s                kubelet, ss-dev-kub07    Created container
  Normal  Started                 43s                kubelet, ss-dev-kub07    Started container
  Normal  Pulled                  43s                kubelet, ss-dev-kub07    Container image "registry.example.com/infra/sphinx/sphinx:v1" already present on machine
  Normal  Created                 42s                kubelet, ss-dev-kub07    Created container
  Normal  Started                 42s                kubelet, ss-dev-kub07    Started container

Peale kaevamist eeldasime, et kubeletil pole lihtsalt aega kogu infot kaunade oleku, elavuse/valmiduse näidiste kohta API serverisse saata.

Ja abi uurides leidsime järgmised parameetrid:

--kube-api-qps - QPS to use while talking with kubernetes apiserver (default 5)
--kube-api-burst  - Burst to use while talking with kubernetes apiserver (default 10) 
--event-qps - If > 0, limit event creations per second to this value. If 0, unlimited. (default 5)
--event-burst - Maximum size of a bursty event records, temporarily allows event records to burst to this number, while still not exceeding event-qps. Only used if --event-qps > 0 (default 10) 
--registry-qps - If > 0, limit registry pull QPS to this value.
--registry-burst - Maximum size of bursty pulls, temporarily allows pulls to burst to this number, while still not exceeding registry-qps. Only used if --registry-qps > 0 (default 10)

Nagu nähtud, vaikeväärtused on üsna väikesed, ja 90% katavad need kõik vajadused... Meie puhul aga sellest ei piisanud. Seetõttu määrame järgmised väärtused:

--event-qps=30 --event-burst=40 --kube-api-burst=40 --kube-api-qps=30 --registry-qps=30 --registry-burst=40

... ja taaskäivitas kubeletid, misjärel nägime API serverile juurdepääsu graafikutel järgmist pilti:

6 meelelahutuslikku süsteemiviga Kubernetese töös [ja nende lahendus]

... ja jah, kõik hakkas lendama!

PS

Abi eest vigade kogumisel ja artikli ettevalmistamisel avaldan sügavat tänu meie ettevõtte arvukatele inseneridele ja eriti meie kolleegile meie uurimis- ja arendusmeeskonnast Andrei Klimentjevile (zuzzad).

PPS

Loe ka meie blogist:

Allikas: www.habr.com

Lisa kommentaar