Automatinis kanarėlių diegimas su „Flagger“ ir „Istio“.

Automatinis kanarėlių diegimas su „Flagger“ ir „Istio“.

Kompaktiniai diskai pripažįstami kaip įmonės programinės įrangos praktika ir yra natūralios nusistovėjusių CI principų evoliucijos rezultatas. Tačiau kompaktinis diskas vis dar yra gana retas, galbūt dėl ​​​​valdymo sudėtingumo ir baimės dėl nesėkmingo diegimo, turinčio įtakos sistemos prieinamumui.

Vėliava yra atvirojo kodo „Kubernetes“ operatorius, kurio tikslas – pašalinti painius santykius. Jis automatizuoja „Canary“ diegimo reklamavimą naudojant „Istio“ srauto kompensavimo ir „Prometheus“ metriką, kad būtų galima analizuoti programos elgseną valdomo diegimo metu.

Toliau pateikiamas žingsnis po žingsnio vadovas, kaip nustatyti ir naudoti „Flagger“ „Google Kubernetes Engine“ (GKE).

„Kubernetes“ klasterio nustatymas

Pirmiausia sukurkite GKE klasterį su Istio priedu (jei neturite GCP paskyros, galite prisiregistruoti čia - gauti nemokamų kreditų).

Prisijunkite prie „Google Cloud“, sukurkite projektą ir įgalinkite jo atsiskaitymą. Įdiekite komandinės eilutės įrankį gdebesis ir nustatykite savo projektą naudodami gcloud init.

Nustatykite numatytąjį projektą, skaičiavimo sritį ir zoną (pakeiskite PROJECT_ID jūsų projektui):

gcloud config set project PROJECT_ID
gcloud config set compute/region us-central1
gcloud config set compute/zone us-central1-a

Įgalinkite GKE paslaugą ir sukurkite klasterį su HPA ir Istio priedais:

gcloud services enable container.googleapis.com
K8S_VERSION=$(gcloud beta container get-server-config --format=json | jq -r '.validMasterVersions[0]')
gcloud beta container clusters create istio 
--cluster-version=${K8S_VERSION} 
--zone=us-central1-a 
--num-nodes=2 
--machine-type=n1-standard-2 
--disk-size=30 
--enable-autorepair 
--no-enable-cloud-logging 
--no-enable-cloud-monitoring 
--addons=HorizontalPodAutoscaling,Istio 
--istio-config=auth=MTLS_PERMISSIVE

Aukščiau pateikta komanda sukurs numatytąjį mazgų telkinį, įskaitant dvi VM n1-standard-2 (vCPU: 2, RAM 7,5 GB, diskas: 30 GB). Idealiu atveju turėtumėte atskirti „Istio“ komponentus nuo savo darbo krūvių, tačiau nėra lengvo būdo paleisti „Istio Pods“ tam skirtame mazgų telkinyje. „Istio“ aprašai laikomi tik skaitomais ir GKE anuliuoja bet kokius pakeitimus, pvz., susiejimą su mazgu arba atjungimą nuo paketo.

Nustatyti kredencialus kubectl:

gcloud container clusters get-credentials istio

Sukurkite klasterio administratoriaus vaidmens susiejimą:

kubectl create clusterrolebinding "cluster-admin-$(whoami)" 
--clusterrole=cluster-admin 
--user="$(gcloud config get-value core/account)"

Įdiekite komandinės eilutės įrankį Šalmas:

brew install kubernetes-helm

Homebrew 2.0 dabar taip pat galima Linux.

Sukurkite „Tiller“ paslaugos paskyrą ir klasterio vaidmenų susiejimą:

kubectl -n kube-system create sa tiller && 
kubectl create clusterrolebinding tiller-cluster-rule 
--clusterrole=cluster-admin 
--serviceaccount=kube-system:tiller

Išplėskite Tiller vardų srityje kube-system:

helm init --service-account tiller

Turėtumėte apsvarstyti galimybę naudoti SSL tarp Helm ir Tiller. Norėdami gauti daugiau informacijos apie „Helm“ įrenginio apsaugą, žr docs.helm.sh

Patvirtinkite nustatymus:

kubectl -n istio-system get svc

Po kelių sekundžių GCP paslaugai turėtų priskirti išorinį IP adresą istio-ingressgateway.

„Istio Ingress Gateway“ konfigūravimas

Sukurkite statinį IP adresą su pavadinimu istio-gatewaynaudojant Istio šliuzo IP adresą:

export GATEWAY_IP=$(kubectl -n istio-system get svc/istio-ingressgateway -ojson | jq -r .status.loadBalancer.ingress[0].ip)
gcloud compute addresses create istio-gateway --addresses ${GATEWAY_IP} --region us-central1

Dabar jums reikia interneto domeno ir prieigos prie DNS registratoriaus. Pridėkite du A įrašus (pakeiskite example.com į jūsų domeną):

istio.example.com   A ${GATEWAY_IP}
*.istio.example.com A ${GATEWAY_IP}

Patikrinkite, ar veikia DNS pakaitos simbolis:

watch host test.istio.example.com

Sukurkite bendrąjį „Istio“ šliuzą, kad galėtumėte teikti paslaugas už paslaugų tinklo ribų per HTTP:

apiVersion: networking.istio.io/v1alpha3
kind: Gateway
metadata:
  name: public-gateway
  namespace: istio-system
spec:
  selector:
    istio: ingressgateway
  servers:
    - port:
        number: 80
        name: http
        protocol: HTTP
      hosts:
        - "*"

Išsaugokite aukščiau pateiktą šaltinį kaip public-gateway.yaml ir pritaikykite jį:

kubectl apply -f ./public-gateway.yaml

Jokia gamybos sistema neturėtų teikti paslaugų internete be SSL. Norėdami apsaugoti Istio įėjimo šliuzą naudodami sertifikatų tvarkyklę, CloudDNS ir Let's Encrypt, skaitykite dokumentacija Žymėjas G.K.E.

Žymeklio diegimas

GKE Istio priede nėra Prometheus egzemplioriaus, kuris išvalo Istio telemetrijos paslaugą. Kadangi „Flagger“ naudoja Istio HTTP metriką kanarėlių analizei atlikti, turite įdiegti šią „Prometheus“ konfigūraciją, panašią į tą, kuri pateikiama oficialioje „Istio Helm“ schemoje.

REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/gke/istio-prometheus.yaml

Pridėkite „Flagger Helm“ saugyklą:

helm repo add flagger [https://flagger.app](https://flagger.app/)

Išskleiskite žymeklį į vardų erdvę istio-systemįgalinę Slack pranešimus:

helm upgrade -i flagger flagger/flagger 
--namespace=istio-system 
--set metricsServer=http://prometheus.istio-system:9090 
--set slack.url=https://hooks.slack.com/services/YOUR-WEBHOOK-ID 
--set slack.channel=general 
--set slack.user=flagger

Galite įdiegti „Flagger“ bet kurioje vardų erdvėje, jei ji gali susisiekti su „Istio Prometheus“ paslauga 9090 prievade.

„Flagger“ turi „Grafana“ prietaisų skydelį, skirtą kanarėlių analizei. Įdiekite „Grafana“ vardų erdvėje istio-system:

helm upgrade -i flagger-grafana flagger/grafana 
--namespace=istio-system 
--set url=http://prometheus.istio-system:9090 
--set user=admin 
--set password=change-me

Atskleiskite Grafana per atvirus vartus sukurdami virtualią paslaugą (pakeiskite example.com į jūsų domeną):

apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
  name: grafana
  namespace: istio-system
spec:
  hosts:
    - "grafana.istio.example.com"
  gateways:
    - public-gateway.istio-system.svc.cluster.local
  http:
    - route:
        - destination:
            host: flagger-grafana

Išsaugokite aukščiau pateiktą šaltinį kaip grafana-virtual-service.yaml ir pritaikykite jį:

kubectl apply -f ./grafana-virtual-service.yaml

Persikėlus į http://grafana.istio.example.com naršyklėje turėtumėte būti nukreipti į Grafana prisijungimo puslapį.

Žiniatinklio programų diegimas naudojant „Flagger“.

„Flagger“ diegia „Kubernetes“ ir, pasirinktinai, automatiškai sumažina mastelį (HPA), tada sukuria objektų seriją („Kubernetes“ diegimai, „ClusterIP“ paslaugos ir „Istio“ virtualios paslaugos). Šie objektai parodo programą paslaugų tinkleliui ir valdo analizę bei eigą.

Automatinis kanarėlių diegimas su „Flagger“ ir „Istio“.

Sukurkite bandomąją vardų erdvę įjungę „Istio Sidecar“ įpurškimą:

REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/namespaces/test.yaml

Sukurkite diegimo ir bloko automatinio mastelio mažinimo įrankį:

kubectl apply -f ${REPO}/artifacts/canaries/deployment.yaml
kubectl apply -f ${REPO}/artifacts/canaries/hpa.yaml

Įdiekite bandomosios apkrovos paslaugą, kad generuotumėte srautą atliekant kanarėlių analizę:

helm upgrade -i flagger-loadtester flagger/loadtester 
--namepace=test

Sukurkite pasirinktinį kanarėlių šaltinį (pakeiskite example.com į jūsų domeną):

apiVersion: flagger.app/v1alpha3
kind: Canary
metadata:
  name: podinfo
  namespace: test
spec:
  targetRef:
    apiVersion: apps/v1
    kind: Deployment
    name: podinfo
  progressDeadlineSeconds: 60
  autoscalerRef:
    apiVersion: autoscaling/v2beta1
    kind: HorizontalPodAutoscaler
    name: podinfo
  service:
    port: 9898
    gateways:
    - public-gateway.istio-system.svc.cluster.local
    hosts:
    - app.istio.example.com
  canaryAnalysis:
    interval: 30s
    threshold: 10
    maxWeight: 50
    stepWeight: 5
    metrics:
    - name: istio_requests_total
      threshold: 99
      interval: 30s
    - name: istio_request_duration_seconds_bucket
      threshold: 500
      interval: 30s
    webhooks:
      - name: load-test
        url: http://flagger-loadtester.test/
        timeout: 5s
        metadata:
          cmd: "hey -z 1m -q 10 -c 2 http://podinfo.test:9898/"

Išsaugokite aukščiau pateiktą šaltinį kaip podinfo-canary.yaml ir tada pritaikykite:

kubectl apply -f ./podinfo-canary.yaml

Aukščiau pateikta analizė, jei pavyks, bus vykdoma penkias minutes, kas pusę minutės tikrinant HTTP metriką. Galite nustatyti minimalų laiką, reikalingą kanarėlių diegimui patvirtinti ir skatinti, naudodami šią formulę: interval * (maxWeight / stepWeight). Kanarų CRD laukai yra dokumentuojami čia.

Po kelių sekundžių žymėtojas sukurs kanarėlės objektus:

# applied 
deployment.apps/podinfo
horizontalpodautoscaler.autoscaling/podinfo
canary.flagger.app/podinfo
# generated 
deployment.apps/podinfo-primary
horizontalpodautoscaler.autoscaling/podinfo-primary
service/podinfo
service/podinfo-canary
service/podinfo-primary
virtualservice.networking.istio.io/podinfo

Atidarykite naršyklę ir eikite į app.istio.example.com, turėtumėte pamatyti versijos numerį demonstracinės programos.

Automatinė kanarėlių analizė ir reklama

„Flagger“ įdiegia valdymo kilpą, kuri palaipsniui perkelia srautą į kanalą, tuo pačiu matuojant pagrindines našumo metriką, pvz., HTTP užklausos sėkmės rodiklį, vidutinę užklausos trukmę ir grupės būklę. Remiantis KPI analize, kanarėlė paaukštinama arba nutraukiama, o analizės rezultatai skelbiami Slack.

Automatinis kanarėlių diegimas su „Flagger“ ir „Istio“.

Kanarų diegimas suaktyvinamas, kai pasikeičia vienas iš šių objektų:

  • Įdiekite „PodSpec“ (konteinerio vaizdas, komanda, prievadai, env ir kt.)
  • „ConfigMaps“ yra montuojami kaip tomai arba susiejami su aplinkos kintamaisiais
  • Paslaptys sumontuojamos kaip tomai arba konvertuojamos į aplinkos kintamuosius

Paleiskite canary deploy atnaujindami sudėtinio rodinio vaizdą:

kubectl -n test set image deployment/podinfo 
podinfod=quay.io/stefanprodan/podinfo:1.4.1

Žymėjas nustato, kad diegimo versija pasikeitė, ir pradeda ją analizuoti:

kubectl -n test describe canary/podinfo

Events:

New revision detected podinfo.test
Scaling up podinfo.test
Waiting for podinfo.test rollout to finish: 0 of 1 updated replicas are available
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Advance podinfo.test canary weight 20
Advance podinfo.test canary weight 25
Advance podinfo.test canary weight 30
Advance podinfo.test canary weight 35
Advance podinfo.test canary weight 40
Advance podinfo.test canary weight 45
Advance podinfo.test canary weight 50
Copying podinfo.test template spec to podinfo-primary.test
Waiting for podinfo-primary.test rollout to finish: 1 of 2 updated replicas are available
Promotion completed! Scaling down podinfo.test

Analizės metu kanarėlių rezultatus galima stebėti naudojant Grafana:

Automatinis kanarėlių diegimas su „Flagger“ ir „Istio“.

Atminkite, kad jei kanalo analizės metu diegimui bus pritaikyti nauji pakeitimai, žymėtojas iš naujo pradės analizės etapą.

Sudarykite visų savo klasterio kanarėlių sąrašą:

watch kubectl get canaries --all-namespaces
NAMESPACE   NAME      STATUS        WEIGHT   LASTTRANSITIONTIME
test        podinfo   Progressing   15       2019-01-16T14:05:07Z
prod        frontend  Succeeded     0        2019-01-15T16:15:07Z
prod        backend   Failed        0        2019-01-14T17:05:07Z

Jei įjungėte „Slack“ pranešimus, gausite šiuos pranešimus:

Automatinis kanarėlių diegimas su „Flagger“ ir „Istio“.

Automatinis atšaukimas

Kanarų analizės metu galite sugeneruoti sintetines HTTP 500 klaidas ir didelę atsako delsą, kad sužinotumėte, ar žymėtojas sustabdys diegimą.

Sukurkite bandomąjį rinkinį ir joje atlikite šiuos veiksmus:

kubectl -n test run tester 
--image=quay.io/stefanprodan/podinfo:1.2.1 
-- ./podinfo --port=9898
kubectl -n test exec -it tester-xx-xx sh

Generuojamos HTTP 500 klaidos:

watch curl http://podinfo-canary:9898/status/500

Vėlavimo generavimas:

watch curl http://podinfo-canary:9898/delay/1

Kai nepavykusių patikrų skaičius pasiekia slenkstį, srautas nukreipiamas atgal į pirminį kanalą, kanalas sumažinamas iki nulio, o diegimas pažymimas kaip nepavykęs.

„Canary“ klaidos ir delsos šuoliai registruojami kaip „Kubernetes“ įvykiai, o žymėtojas – JSON formatu:

kubectl -n istio-system logs deployment/flagger -f | jq .msg

Starting canary deployment for podinfo.test
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Halt podinfo.test advancement success rate 69.17% < 99%
Halt podinfo.test advancement success rate 61.39% < 99%
Halt podinfo.test advancement success rate 55.06% < 99%
Halt podinfo.test advancement success rate 47.00% < 99%
Halt podinfo.test advancement success rate 37.00% < 99%
Halt podinfo.test advancement request duration 1.515s > 500ms
Halt podinfo.test advancement request duration 1.600s > 500ms
Halt podinfo.test advancement request duration 1.915s > 500ms
Halt podinfo.test advancement request duration 2.050s > 500ms
Halt podinfo.test advancement request duration 2.515s > 500ms
Rolling back podinfo.test failed checks threshold reached 10
Canary failed! Scaling down podinfo.test

Jei įjungėte „Slack“ pranešimus, gausite pranešimą, kai bus viršytas terminas arba pasieks maksimalus nesėkmingų patikrinimų skaičius analizėje:

Automatinis kanarėlių diegimas su „Flagger“ ir „Istio“.

užbaigiant

Paleidus paslaugų tinklą, pvz., „Istio“, ne tik „Kubernetes“, bus teikiama automatinė metrika, žurnalai ir protokolai, tačiau darbo krūvio diegimas vis tiek priklauso nuo išorinių įrankių. „Flagger“ siekia tai pakeisti pridėdama „Istio“ galimybes progresyvus pristatymas.

„Flagger“ yra suderinamas su bet kuriuo „Kubernetes CI / CD“ sprendimu, o kanarėlių analizę galima lengvai išplėsti internetiniai kabliukai atlikti sistemos integravimo / priėmimo testus, apkrovos testus ar bet kokius kitus pasirinktinius patikrinimus. Kadangi žymėtojas yra deklaratyvus ir reaguoja į Kubernetes įvykius, jis gali būti naudojamas GitOps vamzdynuose kartu su Weave Flux arba JenkinsX. Jei naudojate „JenkinsX“, galite įdiegti „Flagger“ su „jx“ priedais.

Palaikomas žymeklis Weaveworks ir teikia kanarėlių dislokacijas Weave Cloud. Projektas bandomas ant GKE, EKS ir pliko metalo su kubeadm.

Jei turite pasiūlymų, kaip patobulinti „Flagger“, pateikite problemą arba viešąjį pranešimą „GitHub“ adresu stefanprodanas / vėliavininkas. Įnašai yra daugiau nei laukiami!

Ačiū Rėjus Tsangas.

Šaltinis: www.habr.com

Добавить комментарий