Aŭtomataj kanariaj deplojoj kun Flagger kaj Istio

Aŭtomataj kanariaj deplojoj kun Flagger kaj Istio

KD estas rekonita kiel entreprena softvarpraktiko kaj estas natura evoluo de establitaj CI-principoj. Tamen, KD ankoraŭ estas sufiĉe malofta, eble pro la komplekseco de administrado kaj la timo de malsukcesaj deplojoj influantaj sisteman haveblecon.

Flaganto estas malferma fonto Kubernetes-funkciigisto, kiu celas forigi konfuzajn rilatojn. Ĝi aŭtomatigas la antaŭenigon de kanariaj deplojoj uzante Istio-trafikajn kompensojn kaj Prometheus-metrikojn por analizi aplikan konduton dum administrita lanĉo.

Malsupre estas paŝo-post-paŝa gvidilo por agordi kaj uzi Flagger en Google Kubernetes Engine (GKE).

Agordo de Kubernetes-grupo

Vi komencas kreante GKE-grupon per la aldonaĵo Istio (se vi ne havas GCP-konton, vi povas registriĝi. tie - ricevi senpagajn kreditojn).

Ensalutu al Google Cloud, kreu projekton kaj ebligu fakturadon por ĝi. Instalu la komandlinian ilon gcloud kaj agordu vian projekton per gcloud init.

Agordu la defaŭltan projekton, komputareon kaj zonon (anstataŭigi PROJECT_ID por via projekto):

gcloud config set project PROJECT_ID
gcloud config set compute/region us-central1
gcloud config set compute/zone us-central1-a

Ebligu la GKE-servon kaj kreu areton kun HPA kaj Istio-aldonaĵoj:

gcloud services enable container.googleapis.com
K8S_VERSION=$(gcloud beta container get-server-config --format=json | jq -r '.validMasterVersions[0]')
gcloud beta container clusters create istio 
--cluster-version=${K8S_VERSION} 
--zone=us-central1-a 
--num-nodes=2 
--machine-type=n1-standard-2 
--disk-size=30 
--enable-autorepair 
--no-enable-cloud-logging 
--no-enable-cloud-monitoring 
--addons=HorizontalPodAutoscaling,Istio 
--istio-config=auth=MTLS_PERMISSIVE

La supra komando kreos defaŭltan nodan naĝejon konsistantan el du VM-oj n1-standard-2 (vCPU: 2, RAM 7,5 GB, disko: 30 GB). Ideale, Istio-komponentoj devus esti izolitaj de siaj laborŝarĝoj, sed ne ekzistas facila maniero ruli Istio-podojn sur dediĉita noda naĝejo. Istio-manifestoj estas konsiderataj nurlegeblaj, kaj GKE revertos iujn ajn ŝanĝojn kiel ligado al nodo aŭ dekroĉado de pod.

Agordu akreditaĵojn por kubectl:

gcloud container clusters get-credentials istio

Kreu grupan administran rolligadon:

kubectl create clusterrolebinding "cluster-admin-$(whoami)" 
--clusterrole=cluster-admin 
--user="$(gcloud config get-value core/account)"

Instalu la komandlinian ilon Kasko:

brew install kubernetes-helm

Homebrew 2.0 nun estas ankaŭ havebla por linux.

Kreu servokonton kaj grupan rolligadon por Tiller:

kubectl -n kube-system create sa tiller && 
kubectl create clusterrolebinding tiller-cluster-rule 
--clusterrole=cluster-admin 
--serviceaccount=kube-system:tiller

Vastigu Tiller en nomspaco kube-system:

helm init --service-account tiller

Vi devus konsideri uzi SSL inter Helm kaj Tiller. Por pliaj informoj pri protektado de via Helm-instalaĵo, vidu docs.helm.sh

Konfirmu agordojn:

kubectl -n istio-system get svc

Post kelkaj sekundoj, GCP devus asigni eksteran IP-adreson al la servo istio-ingressgateway.

Starigante Istio Ingress Gateway

Kreu statikan IP-adreson kun la nomo istio-gatewayuzante la IP-adreson de la enirejo de Istio:

export GATEWAY_IP=$(kubectl -n istio-system get svc/istio-ingressgateway -ojson | jq -r .status.loadBalancer.ingress[0].ip)
gcloud compute addresses create istio-gateway --addresses ${GATEWAY_IP} --region us-central1

Nun vi bezonas interretan domajnon kaj aliron al via DNS-registristo. Aldonu du A-rekordojn (anstataŭigi example.com al via domajno):

istio.example.com   A ${GATEWAY_IP}
*.istio.example.com A ${GATEWAY_IP}

Kontrolu, ke DNS-ĵokero funkcias:

watch host test.istio.example.com

Kreu senmarkan Istio-enirejon por provizi servojn ekster la servomaŝo per HTTP:

apiVersion: networking.istio.io/v1alpha3
kind: Gateway
metadata:
  name: public-gateway
  namespace: istio-system
spec:
  selector:
    istio: ingressgateway
  servers:
    - port:
        number: 80
        name: http
        protocol: HTTP
      hosts:
        - "*"

Konservu la ĉi-supran rimedon kiel public-gateway.yaml kaj poste apliku ĝin:

kubectl apply -f ./public-gateway.yaml

Neniu produktadsistemo devus provizi servojn en la Interreto sen SSL. Por sekurigi vian enirejon de Istio per cert-manaĝero, CloudDNS kaj Let's Encrypt, bonvolu legi dokumentado Flagger G.K.E.

Flagger-instalado

La GKE Istio-aldonaĵo ne inkluzivas la Prometheus-instancon, kiu purigas la Istio-telemetrian servon. Ĉar Flagger uzas Istio HTTP-metrikojn por fari kanarian analizon, vi devas disfaldi la sekvan Prometheus-agordon, similan al tiu, kiu venas kun la oficiala Istio Helm-skemo.

REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/gke/istio-prometheus.yaml

Aldonu la deponejon de Flagger Helm:

helm repo add flagger [https://flagger.app](https://flagger.app/)

Vastigu Flagger al nomspaco istio-systemebligante Slack-sciojn:

helm upgrade -i flagger flagger/flagger 
--namespace=istio-system 
--set metricsServer=http://prometheus.istio-system:9090 
--set slack.url=https://hooks.slack.com/services/YOUR-WEBHOOK-ID 
--set slack.channel=general 
--set slack.user=flagger

Vi povas instali Flagger en iu ajn nomspaco kondiĉe ke ĝi povas komuniki kun la Istio Prometheus-servo ĉe la haveno 9090.

Flagger havas Grafana panelo por kanaria analizo. Instalu Grafana en nomspaco istio-system:

helm upgrade -i flagger-grafana flagger/grafana 
--namespace=istio-system 
--set url=http://prometheus.istio-system:9090 
--set user=admin 
--set password=change-me

Eksponu Grafana per malfermita enirejo kreante virtualan servon (anstataŭigi example.com al via domajno):

apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
  name: grafana
  namespace: istio-system
spec:
  hosts:
    - "grafana.istio.example.com"
  gateways:
    - public-gateway.istio-system.svc.cluster.local
  http:
    - route:
        - destination:
            host: flagger-grafana

Konservu la ĉi-supran rimedon kiel grafana-virtual-service.yaml kaj poste apliku ĝin:

kubectl apply -f ./grafana-virtual-service.yaml

Kiam iras al http://grafana.istio.example.com Via retumilo devus redirekti vin al la ensalutpaĝo de Grafana.

Deplojante TTT-aplikaĵojn kun Flagger

Flagger deplojas Kubernetes kaj, se necese, horizontalan aŭtoskalon (HPA), tiam kreas serion de objektoj (Kubernetes-deplojoj, ClusterIP-servoj kaj Istio virtualaj servoj). Ĉi tiuj objektoj elmontras la aplikaĵon al la servomaŝo kaj administras kanarian analizon kaj reklamadon.

Aŭtomataj kanariaj deplojoj kun Flagger kaj Istio

Kreu testan nomspacon kun efektivigo de Istio Sidecar ebligita:

REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/namespaces/test.yaml

Kreu deplojon kaj aŭtomatan horizontalan skalan ilon por la pod:

kubectl apply -f ${REPO}/artifacts/canaries/deployment.yaml
kubectl apply -f ${REPO}/artifacts/canaries/hpa.yaml

Deploji ŝarĝan testservon por generi trafikon dum kanaria analizo:

helm upgrade -i flagger-loadtester flagger/loadtester 
--namepace=test

Kreu kutiman kanarian rimedon (anstataŭigi example.com al via domajno):

apiVersion: flagger.app/v1alpha3
kind: Canary
metadata:
  name: podinfo
  namespace: test
spec:
  targetRef:
    apiVersion: apps/v1
    kind: Deployment
    name: podinfo
  progressDeadlineSeconds: 60
  autoscalerRef:
    apiVersion: autoscaling/v2beta1
    kind: HorizontalPodAutoscaler
    name: podinfo
  service:
    port: 9898
    gateways:
    - public-gateway.istio-system.svc.cluster.local
    hosts:
    - app.istio.example.com
  canaryAnalysis:
    interval: 30s
    threshold: 10
    maxWeight: 50
    stepWeight: 5
    metrics:
    - name: istio_requests_total
      threshold: 99
      interval: 30s
    - name: istio_request_duration_seconds_bucket
      threshold: 500
      interval: 30s
    webhooks:
      - name: load-test
        url: http://flagger-loadtester.test/
        timeout: 5s
        metadata:
          cmd: "hey -z 1m -q 10 -c 2 http://podinfo.test:9898/"

Konservu la ĉi-supran rimedon kiel podinfo-canary.yaml kaj poste apliku ĝin:

kubectl apply -f ./podinfo-canary.yaml

La supra analizo, se sukcesa, funkcios dum kvin minutoj, kontrolante HTTP-metrikojn ĉiun duonminuton. Vi povas determini la minimuman tempon bezonatan por testi kaj antaŭenigi kanarian deplojon uzante la jenan formulon: interval * (maxWeight / stepWeight). Kanariaj CRD-kampoj estas dokumentitaj tie.

Post kelkaj sekundoj, Flagger kreos kanariajn objektojn:

# applied 
deployment.apps/podinfo
horizontalpodautoscaler.autoscaling/podinfo
canary.flagger.app/podinfo
# generated 
deployment.apps/podinfo-primary
horizontalpodautoscaler.autoscaling/podinfo-primary
service/podinfo
service/podinfo-canary
service/podinfo-primary
virtualservice.networking.istio.io/podinfo

Malfermu vian retumilon kaj iru al app.istio.example.com, vi devus vidi la numeron de versio demo-aplikoj.

Aŭtomata kanaria analizo kaj promocio

Flagger efektivigas kontrolbuklon kiu iom post iom movas trafikon al la kanario dum mezurado de ŝlosilaj agado-indikiloj kiel ekzemple HTTP-peta sukcesprocento, averaĝa petodaŭro kaj podsano. Surbaze de la KPI-analizo, la kanario estas promociita aŭ ĉesigita, kaj la rezultoj de la analizo estas publikigitaj en Slack.

Aŭtomataj kanariaj deplojoj kun Flagger kaj Istio

Kanaria deplojo estas ekigita kiam unu el la sekvaj objektoj ŝanĝiĝas:

  • Deploji PodSpec (ujo bildo, komando, havenoj, env, ktp.)
  • ConfigMaps estas muntitaj kiel volumoj aŭ konvertitaj al mediovariabloj
  • Sekretoj estas muntitaj kiel volumoj aŭ konvertitaj al mediovariabloj

Rulu kanarian deplojon dum ĝisdatigo de la ujbildo:

kubectl -n test set image deployment/podinfo 
podinfod=quay.io/stefanprodan/podinfo:1.4.1

Flagger detektas ke la deploja versio ŝanĝiĝis kaj komencas analizi ĝin:

kubectl -n test describe canary/podinfo

Events:

New revision detected podinfo.test
Scaling up podinfo.test
Waiting for podinfo.test rollout to finish: 0 of 1 updated replicas are available
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Advance podinfo.test canary weight 20
Advance podinfo.test canary weight 25
Advance podinfo.test canary weight 30
Advance podinfo.test canary weight 35
Advance podinfo.test canary weight 40
Advance podinfo.test canary weight 45
Advance podinfo.test canary weight 50
Copying podinfo.test template spec to podinfo-primary.test
Waiting for podinfo-primary.test rollout to finish: 1 of 2 updated replicas are available
Promotion completed! Scaling down podinfo.test

Dum analizo, kanariaj rezultoj povas esti monitoritaj uzante Grafana:

Aŭtomataj kanariaj deplojoj kun Flagger kaj Istio

Bonvolu noti: se novaj ŝanĝoj estas aplikataj al la deplojo dum kanaria analizo, Flagger rekomencos la analizan fazon.

Faru liston de ĉiuj kanarioj en via areto:

watch kubectl get canaries --all-namespaces
NAMESPACE   NAME      STATUS        WEIGHT   LASTTRANSITIONTIME
test        podinfo   Progressing   15       2019-01-16T14:05:07Z
prod        frontend  Succeeded     0        2019-01-15T16:15:07Z
prod        backend   Failed        0        2019-01-14T17:05:07Z

Se vi ebligis Slack-sciojn, vi ricevos la jenajn mesaĝojn:

Aŭtomataj kanariaj deplojoj kun Flagger kaj Istio

Aŭtomata retroiro

Dum kanaria analizo, vi povas generi sintezajn HTTP 500-erarojn kaj altan respondan latentecon por kontroli ĉu Flagger ĉesos la deplojon.

Kreu teston kaj faru la jenon en ĝi:

kubectl -n test run tester 
--image=quay.io/stefanprodan/podinfo:1.2.1 
-- ./podinfo --port=9898
kubectl -n test exec -it tester-xx-xx sh

Generante HTTP 500-erarojn:

watch curl http://podinfo-canary:9898/status/500

Malfrua generacio:

watch curl http://podinfo-canary:9898/delay/1

Kiam la nombro da malsukcesaj ĉekoj atingas sojlon, trafiko estas direktita reen al la primara kanalo, la kanario estas skalita al nul, kaj la deplojo estas markita kiel malsukcesa.

Kanariaj eraroj kaj latentecaj pikiloj estas registritaj kiel Kubernetes-okazaĵoj kaj registritaj de Flagger en formato JSON:

kubectl -n istio-system logs deployment/flagger -f | jq .msg

Starting canary deployment for podinfo.test
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Halt podinfo.test advancement success rate 69.17% < 99%
Halt podinfo.test advancement success rate 61.39% < 99%
Halt podinfo.test advancement success rate 55.06% < 99%
Halt podinfo.test advancement success rate 47.00% < 99%
Halt podinfo.test advancement success rate 37.00% < 99%
Halt podinfo.test advancement request duration 1.515s > 500ms
Halt podinfo.test advancement request duration 1.600s > 500ms
Halt podinfo.test advancement request duration 1.915s > 500ms
Halt podinfo.test advancement request duration 2.050s > 500ms
Halt podinfo.test advancement request duration 2.515s > 500ms
Rolling back podinfo.test failed checks threshold reached 10
Canary failed! Scaling down podinfo.test

Se vi ebligis Slack-sciojn, vi ricevos mesaĝon kiam la limdato por kompletigi aŭ atingi la maksimuman nombron da malsukcesaj recenzoj en analizo estos superita:

Aŭtomataj kanariaj deplojoj kun Flagger kaj Istio

En konkludo

Ruli servan reton kiel Istio super Kubernetes provizos aŭtomatajn metrikojn, protokolojn kaj protokolojn, sed deploji laborkvantojn ankoraŭ dependas de eksteraj iloj. Flagger celas ŝanĝi ĉi tion aldonante Istio-kapablojn progresiva livero.

Flagger estas kongrua kun ajna CI/KD-solvo por Kubernetes, kaj kanaria analizo povas esti facile etendebla per rethokoj fari sistemajn integrigajn/akceptajn testojn, ŝarĝajn testojn aŭ ajnajn aliajn kutimajn provojn. Ĉar Flagger estas deklara kaj respondas al Kubernetes-eventoj, ĝi povas esti uzata en GitOps-duktoj kune kun TeksfluoJenkinsX. Se vi uzas JenkinsX, vi povas instali Flagger per jx-aldonaĵoj.

Flagger subtenata Teksaĵoj kaj disponigas kanariajn deplojojn en Teksa Nubo. La projekto estas testita sur GKE, EKS kaj nuda metalo kun kubeadm.

Se vi havas sugestojn por plibonigi Flagger, bonvolu sendi problemon aŭ PR ĉe GitHub ĉe stefanprodan/flagger. Kontribuoj estas pli ol bonvenaj!

Спасибо Ray Tsang.

fonto: www.habr.com

Aldoni komenton