Automatikus kanári telepítések a Flaggerrel és az Istióval

Automatikus kanári telepítések a Flaggerrel és az Istióval

A CD-t vállalati szoftvergyakorlatként ismerik el, és a kialakult CI-elvek természetes fejlődése. A CD azonban még mindig meglehetősen ritka, talán a menedzsment összetettsége és a rendszer rendelkezésre állását befolyásoló sikertelen telepítésektől való félelem miatt.

Jelző egy nyílt forráskódú Kubernetes operátor, amelynek célja a zavaros kapcsolatok kiküszöbölése. Automatizálja a Canary telepítések népszerűsítését az Istio forgalomeltolódások és a Prometheus mérőszámok segítségével, hogy elemezze az alkalmazások viselkedését a felügyelt közzététel során.

Az alábbiakban lépésről lépésre található útmutató a Google Kubernetes Engine (GKE) Google Kubernetes Engine (GKE) rendszerben történő beállításához és használatához.

Kubernetes-fürt beállítása

Először hozzon létre egy GKE-fürtöt az Istio kiegészítővel (ha nincs GCP-fiókja, regisztrálhat itt - ingyenes kreditekhez).

Jelentkezzen be a Google Cloudba, hozzon létre egy projektet, és engedélyezze a számlázást. Telepítse a parancssori segédprogramot gcloud és konfigurálja a projektet ezzel gcloud init.

Állítsa be az alapértelmezett projektet, számítási területet és zónát (cserélje ki PROJECT_ID a projektjéhez):

gcloud config set project PROJECT_ID
gcloud config set compute/region us-central1
gcloud config set compute/zone us-central1-a

Engedélyezze a GKE szolgáltatást, és hozzon létre egy fürtöt HPA és Istio kiegészítőkkel:

gcloud services enable container.googleapis.com
K8S_VERSION=$(gcloud beta container get-server-config --format=json | jq -r '.validMasterVersions[0]')
gcloud beta container clusters create istio 
--cluster-version=${K8S_VERSION} 
--zone=us-central1-a 
--num-nodes=2 
--machine-type=n1-standard-2 
--disk-size=30 
--enable-autorepair 
--no-enable-cloud-logging 
--no-enable-cloud-monitoring 
--addons=HorizontalPodAutoscaling,Istio 
--istio-config=auth=MTLS_PERMISSIVE

A fenti parancs két virtuális gépből álló alapértelmezett csomópontkészletet hoz létre n1-standard-2 (vCPU: 2, RAM 7,5 GB, lemez: 30 GB). Ideális esetben az Istio-összetevőket el kell különíteni a munkaterhelésüktől, de nincs egyszerű módja az Istio pod-ok dedikált csomópontkészleten való futtatásának. Az Istio-jegyzékek írásvédettnek minősülnek, és a GKE visszaállít minden olyan változtatást, mint például a csomóponthoz való kötődés vagy a podról való leválasztás.

Hitelesítési adatok beállítása a következőhöz kubectl:

gcloud container clusters get-credentials istio

Hozzon létre egy fürt rendszergazdai szerepkör-kötést:

kubectl create clusterrolebinding "cluster-admin-$(whoami)" 
--clusterrole=cluster-admin 
--user="$(gcloud config get-value core/account)"

Telepítse a parancssori eszközt Sisak:

brew install kubernetes-helm

A Homebrew 2.0 már elérhető a következőhöz is Linux.

Hozzon létre egy szolgáltatásfiókot és fürt szerepkör-kötést a Tiller számára:

kubectl -n kube-system create sa tiller && 
kubectl create clusterrolebinding tiller-cluster-rule 
--clusterrole=cluster-admin 
--serviceaccount=kube-system:tiller

Bontsa ki a Tiller elemet a névtérben kube-system:

helm init --service-account tiller

Érdemes megfontolni az SSL használatát a Helm és a Tiller között. A Helm telepítés védelmével kapcsolatos további információkért lásd: docs.helm.sh

Beállítások megerősítése:

kubectl -n istio-system get svc

Néhány másodperc múlva a GCP-nek külső IP-címet kell rendelnie a szolgáltatáshoz istio-ingressgateway.

Istio Ingress Gateway beállítása

Hozzon létre egy statikus IP-címet a névvel istio-gatewayaz Istio átjáró IP-címének használatával:

export GATEWAY_IP=$(kubectl -n istio-system get svc/istio-ingressgateway -ojson | jq -r .status.loadBalancer.ingress[0].ip)
gcloud compute addresses create istio-gateway --addresses ${GATEWAY_IP} --region us-central1

Most szüksége van egy internetes domainre és hozzáférésre a DNS-regisztrátorhoz. Adjon hozzá két A rekordot (cserélje ki example.com az Ön domainjébe):

istio.example.com   A ${GATEWAY_IP}
*.istio.example.com A ${GATEWAY_IP}

Ellenőrizze, hogy működik-e a DNS helyettesítő karaktere:

watch host test.istio.example.com

Hozzon létre egy általános Istio-átjárót a szolgáltatáshálón kívüli szolgáltatások nyújtásához HTTP-n keresztül:

apiVersion: networking.istio.io/v1alpha3
kind: Gateway
metadata:
  name: public-gateway
  namespace: istio-system
spec:
  selector:
    istio: ingressgateway
  servers:
    - port:
        number: 80
        name: http
        protocol: HTTP
      hosts:
        - "*"

Mentse el a fenti erőforrást public-gateway.yaml néven, majd alkalmazza:

kubectl apply -f ./public-gateway.yaml

Egyetlen termelési rendszer sem nyújthat szolgáltatásokat az interneten SSL nélkül. Az Istio bemeneti átjáró tanúsítványkezelővel, CloudDNS-sel és Let's Encrypt segítségével biztosításához olvassa el a következőt: dokumentáció Jelző G.K.E.

Jelző telepítése

A GKE Istio kiegészítő nem tartalmazza az Istio telemetriai szolgáltatást megtisztító Prometheus példányt. Mivel a Flagger az Istio HTTP-metrikákat használja a kanári elemzés végrehajtásához, a következő Prometheus-konfigurációt kell telepítenie, hasonlóan ahhoz, amely a hivatalos Istio Helm sémához tartozik.

REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/gke/istio-prometheus.yaml

A Flagger Helm adattár hozzáadása:

helm repo add flagger [https://flagger.app](https://flagger.app/)

Bontsa ki a Jelölőt névtérre istio-systema Slack értesítések engedélyezésével:

helm upgrade -i flagger flagger/flagger 
--namespace=istio-system 
--set metricsServer=http://prometheus.istio-system:9090 
--set slack.url=https://hooks.slack.com/services/YOUR-WEBHOOK-ID 
--set slack.channel=general 
--set slack.user=flagger

Bármely névtérbe telepítheti a Flaggert, amennyiben kommunikálni tud az Istio Prometheus szolgáltatással a 9090-es porton.

A Flagger rendelkezik egy Grafana irányítópulttal a kanári elemzéshez. Telepítse a Grafana-t a névtérbe istio-system:

helm upgrade -i flagger-grafana flagger/grafana 
--namespace=istio-system 
--set url=http://prometheus.istio-system:9090 
--set user=admin 
--set password=change-me

Tegye közzé a Grafana-t egy nyitott átjárón keresztül egy virtuális szolgáltatás létrehozásával (cserélje ki example.com az Ön domainjébe):

apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
  name: grafana
  namespace: istio-system
spec:
  hosts:
    - "grafana.istio.example.com"
  gateways:
    - public-gateway.istio-system.svc.cluster.local
  http:
    - route:
        - destination:
            host: flagger-grafana

Mentse el a fenti erőforrást grafana-virtual-service.yaml néven, majd alkalmazza:

kubectl apply -f ./grafana-virtual-service.yaml

Amikor megy http://grafana.istio.example.com A böngészőjének át kell irányítania a Grafana bejelentkezési oldalára.

Webes alkalmazások telepítése a Flagger segítségével

A jelző telepíti a Kubernetes-et és szükség esetén a horizontális automatikus skálázást (HPA), majd létrehoz egy sor objektumot (Kubernetes-telepítések, ClusterIP-szolgáltatások és Istio virtuális szolgáltatások). Ezek az objektumok teszik ki az alkalmazást a szolgáltatáshálónak, és vezérlik a kanári elemzést és promóciót.

Automatikus kanári telepítések a Flaggerrel és az Istióval

Hozzon létre egy teszt névteret az Istio Sidecar megvalósítással:

REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/namespaces/test.yaml

Hozzon létre egy telepítést és egy automatikus vízszintes skálázó eszközt a podhoz:

kubectl apply -f ${REPO}/artifacts/canaries/deployment.yaml
kubectl apply -f ${REPO}/artifacts/canaries/hpa.yaml

Telepítsen egy terhelési teszt szolgáltatást a forgalom generálásához a Canary elemzés során:

helm upgrade -i flagger-loadtester flagger/loadtester 
--namepace=test

Hozzon létre egy egyéni kanári erőforrást (cserélje ki example.com az Ön domainjébe):

apiVersion: flagger.app/v1alpha3
kind: Canary
metadata:
  name: podinfo
  namespace: test
spec:
  targetRef:
    apiVersion: apps/v1
    kind: Deployment
    name: podinfo
  progressDeadlineSeconds: 60
  autoscalerRef:
    apiVersion: autoscaling/v2beta1
    kind: HorizontalPodAutoscaler
    name: podinfo
  service:
    port: 9898
    gateways:
    - public-gateway.istio-system.svc.cluster.local
    hosts:
    - app.istio.example.com
  canaryAnalysis:
    interval: 30s
    threshold: 10
    maxWeight: 50
    stepWeight: 5
    metrics:
    - name: istio_requests_total
      threshold: 99
      interval: 30s
    - name: istio_request_duration_seconds_bucket
      threshold: 500
      interval: 30s
    webhooks:
      - name: load-test
        url: http://flagger-loadtester.test/
        timeout: 5s
        metadata:
          cmd: "hey -z 1m -q 10 -c 2 http://podinfo.test:9898/"

Mentse el a fenti erőforrást podinfo-canary.yaml néven, majd alkalmazza:

kubectl apply -f ./podinfo-canary.yaml

A fenti elemzés, ha sikeres, öt percig fut, félpercenként ellenőrzi a HTTP-metrikákat. A következő képlet segítségével meghatározhatja a kanári telepítés teszteléséhez és népszerűsítéséhez szükséges minimális időt: interval * (maxWeight / stepWeight). A Canary CRD mezők dokumentáltak itt.

Néhány másodperc múlva a Flagger kanári objektumokat hoz létre:

# applied 
deployment.apps/podinfo
horizontalpodautoscaler.autoscaling/podinfo
canary.flagger.app/podinfo
# generated 
deployment.apps/podinfo-primary
horizontalpodautoscaler.autoscaling/podinfo-primary
service/podinfo
service/podinfo-canary
service/podinfo-primary
virtualservice.networking.istio.io/podinfo

Nyissa meg a böngészőt, és lépjen ide app.istio.example.com, látnia kell a verziószámot demó alkalmazások.

Automatikus kanári elemzés és promóció

A Flagger olyan vezérlőhurkot valósít meg, amely fokozatosan áthelyezi a forgalmat a kanárira, miközben méri a fő teljesítménymutatókat, például a HTTP-kérés sikerességi arányát, az átlagos kérés időtartamát és a pod állapotát. A KPI elemzés alapján a kanári előléptetésre vagy megszüntetésre kerül, az elemzés eredményeit a Slackben publikáljuk.

Automatikus kanári telepítések a Flaggerrel és az Istióval

A Canary telepítése akkor indul el, ha a következő objektumok egyike megváltozik:

  • PodSpec telepítése (tárolókép, parancs, portok, env stb.)
  • A ConfigMaps kötetként csatolható, vagy környezeti változókká konvertálható
  • A titkokat kötetként rögzíti, vagy környezeti változókká konvertálja

Futtassa a Canary telepítést a tárolókép frissítésekor:

kubectl -n test set image deployment/podinfo 
podinfod=quay.io/stefanprodan/podinfo:1.4.1

A jelző észleli, hogy a telepítési verzió megváltozott, és elkezdi elemezni:

kubectl -n test describe canary/podinfo

Events:

New revision detected podinfo.test
Scaling up podinfo.test
Waiting for podinfo.test rollout to finish: 0 of 1 updated replicas are available
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Advance podinfo.test canary weight 20
Advance podinfo.test canary weight 25
Advance podinfo.test canary weight 30
Advance podinfo.test canary weight 35
Advance podinfo.test canary weight 40
Advance podinfo.test canary weight 45
Advance podinfo.test canary weight 50
Copying podinfo.test template spec to podinfo-primary.test
Waiting for podinfo-primary.test rollout to finish: 1 of 2 updated replicas are available
Promotion completed! Scaling down podinfo.test

Az elemzés során a kanári eredmények nyomon követhetők a Grafana segítségével:

Automatikus kanári telepítések a Flaggerrel és az Istióval

Kérjük, vegye figyelembe: ha a Canary elemzés során új módosításokat alkalmaznak a telepítésen, a jelző újraindítja az elemzési fázist.

Készítsen listát a klaszterben lévő összes kanárikról:

watch kubectl get canaries --all-namespaces
NAMESPACE   NAME      STATUS        WEIGHT   LASTTRANSITIONTIME
test        podinfo   Progressing   15       2019-01-16T14:05:07Z
prod        frontend  Succeeded     0        2019-01-15T16:15:07Z
prod        backend   Failed        0        2019-01-14T17:05:07Z

Ha engedélyezte a Slack-értesítéseket, a következő üzeneteket fogja kapni:

Automatikus kanári telepítések a Flaggerrel és az Istióval

Automatikus visszagörgetés

A kanári elemzés során szintetikus HTTP 500 hibákat és magas válaszkésleltetést generálhat annak ellenőrzésére, hogy a jelző leállítja-e a központi telepítést.

Hozzon létre egy tesztdobozt, és tegye benne a következőket:

kubectl -n test run tester 
--image=quay.io/stefanprodan/podinfo:1.2.1 
-- ./podinfo --port=9898
kubectl -n test exec -it tester-xx-xx sh

HTTP 500 hibák generálása:

watch curl http://podinfo-canary:9898/status/500

Késleltetés generálása:

watch curl http://podinfo-canary:9898/delay/1

Amikor a sikertelen ellenőrzések száma elér egy küszöbértéket, a forgalom visszairányításra kerül az elsődleges csatornára, a kanári nullára lesz méretezve, és a telepítést sikertelenként jelöli meg.

A Canary hibákat és a késleltetési csúcsokat Kubernetes-eseményként naplózza, és a Flagger rögzíti JSON formátumban:

kubectl -n istio-system logs deployment/flagger -f | jq .msg

Starting canary deployment for podinfo.test
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Halt podinfo.test advancement success rate 69.17% < 99%
Halt podinfo.test advancement success rate 61.39% < 99%
Halt podinfo.test advancement success rate 55.06% < 99%
Halt podinfo.test advancement success rate 47.00% < 99%
Halt podinfo.test advancement success rate 37.00% < 99%
Halt podinfo.test advancement request duration 1.515s > 500ms
Halt podinfo.test advancement request duration 1.600s > 500ms
Halt podinfo.test advancement request duration 1.915s > 500ms
Halt podinfo.test advancement request duration 2.050s > 500ms
Halt podinfo.test advancement request duration 2.515s > 500ms
Rolling back podinfo.test failed checks threshold reached 10
Canary failed! Scaling down podinfo.test

Ha engedélyezte a Slack-értesítéseket, üzenetet fog kapni, ha az elemzésben túllépi a befejezési határidőt, vagy eléri a sikertelen felülvizsgálatok maximális számát:

Automatikus kanári telepítések a Flaggerrel és az Istióval

Összefoglalva

Egy szolgáltatásháló, például az Istio futtatása a Kubernetes tetején automatikus mérőszámokat, naplókat és naplókat biztosít, de a munkaterhelések telepítése továbbra is a külső eszközöktől függ. A Flagger ezen az Istio-képességek hozzáadásával kíván változtatni progresszív szállítás.

A Flagger kompatibilis a Kubernetes bármely CI/CD-megoldásával, és a kanári elemzés könnyen kiterjeszthető webhookok rendszerintegrációs/elfogadási tesztek, terhelési tesztek vagy bármilyen más egyedi teszt elvégzésére. Mivel a jelző deklaratív és reagál a Kubernetes eseményekre, a GitOps folyamatokban használható Weave Flux vagy JenkinsX. Ha JenkinsX-et használ, telepítheti a Flaggert jx kiegészítőkkel.

A bejelentő támogatott Weaveworks és kanári bevetéseket biztosít Weave Cloud. A projektet GKE-n, EKS-en és csupasz fémen tesztelték kubeadm-mel.

Ha javaslatai vannak a Jelölő fejlesztésére, küldjön be egy problémát vagy PR-t a GitHubon a következő címen stefanprodan/lobogó. A hozzájárulásokat több mint szívesen fogadjuk!

Köszönöm Ray Tsang.

Forrás: will.com

Hozzászólás