Implementări automate Canary cu Flagger și Istio

Implementări automate Canary cu Flagger și Istio

CD-ul este recunoscut ca o practică software de întreprindere și este rezultatul unei evoluții naturale a principiilor CI consacrate. Cu toate acestea, CD-ul este încă destul de rar, probabil din cauza complexității managementului și a fricii de implementări eșuate care afectează disponibilitatea sistemului.

flagger este un operator Kubernetes open source care își propune să elimine relațiile confuze. Automatizează promovarea implementărilor Canary utilizând compensarea traficului Istio și valorile Prometheus pentru a analiza comportamentul aplicației în timpul unei lansări gestionate.

Mai jos este un ghid pas cu pas pentru configurarea și utilizarea Flagger pe Google Kubernetes Engine (GKE).

Configurarea unui cluster Kubernetes

Începeți prin a crea un cluster GKE cu suplimentul Istio (dacă nu aveți un cont GCP, vă puteți înscrie aici - pentru a obține credite gratuite).

Conectați-vă la Google Cloud, creați un proiect și activați facturarea pentru acesta. Instalați utilitarul de linie de comandă gcloud și configurați-vă proiectul cu gcloud init.

Setați proiectul, zona de calcul și zona implicite (înlocuiți PROJECT_ID pentru proiectul dvs.):

gcloud config set project PROJECT_ID
gcloud config set compute/region us-central1
gcloud config set compute/zone us-central1-a

Activați serviciul GKE și creați un cluster cu suplimente HPA și Istio:

gcloud services enable container.googleapis.com
K8S_VERSION=$(gcloud beta container get-server-config --format=json | jq -r '.validMasterVersions[0]')
gcloud beta container clusters create istio 
--cluster-version=${K8S_VERSION} 
--zone=us-central1-a 
--num-nodes=2 
--machine-type=n1-standard-2 
--disk-size=30 
--enable-autorepair 
--no-enable-cloud-logging 
--no-enable-cloud-monitoring 
--addons=HorizontalPodAutoscaling,Istio 
--istio-config=auth=MTLS_PERMISSIVE

Comanda de mai sus va crea un pool de noduri implicit care include două VM n1-standard-2 (vCPU: 2, RAM 7,5 GB, disc: 30 GB). În mod ideal, ar trebui să izolați componentele Istio de sarcinile dvs. de lucru, dar nu există o modalitate ușoară de a rula Istio Pods într-un grup dedicat de noduri. Manifestele Istio sunt considerate numai pentru citire, iar GKE va anula orice modificare, cum ar fi conectarea la un nod sau detașarea dintr-un pod.

Configurați acreditările pentru kubectl:

gcloud container clusters get-credentials istio

Creați o legare de rol de administrator de cluster:

kubectl create clusterrolebinding "cluster-admin-$(whoami)" 
--clusterrole=cluster-admin 
--user="$(gcloud config get-value core/account)"

Instalați instrumentul de linie de comandă Cârmă:

brew install kubernetes-helm

Homebrew 2.0 este acum disponibil și pentru Linux.

Creați un cont de serviciu și legare rol cluster pentru Tiller:

kubectl -n kube-system create sa tiller && 
kubectl create clusterrolebinding tiller-cluster-rule 
--clusterrole=cluster-admin 
--serviceaccount=kube-system:tiller

Extindeți Tiller în spațiul de nume kube-system:

helm init --service-account tiller

Ar trebui să luați în considerare utilizarea SSL între Helm și Tiller. Pentru mai multe informații despre protejarea instalării Helm, consultați docs.helm.sh

Confirmați setările:

kubectl -n istio-system get svc

După câteva secunde, GCP ar trebui să atribuie o adresă IP externă pentru serviciu istio-ingressgateway.

Configurarea Istio Ingress Gateway

Creați o adresă IP statică cu un nume istio-gatewayfolosind adresa IP a gateway-ului Istio:

export GATEWAY_IP=$(kubectl -n istio-system get svc/istio-ingressgateway -ojson | jq -r .status.loadBalancer.ingress[0].ip)
gcloud compute addresses create istio-gateway --addresses ${GATEWAY_IP} --region us-central1

Acum aveți nevoie de un domeniu de internet și de acces la registratorul DNS. Adăugați două înregistrări A (înlocuiți example.com la domeniul dvs.):

istio.example.com   A ${GATEWAY_IP}
*.istio.example.com A ${GATEWAY_IP}

Verificați dacă wildcardul DNS funcționează:

watch host test.istio.example.com

Creați un gateway Istio generic pentru a furniza servicii în afara rețelei de servicii prin HTTP:

apiVersion: networking.istio.io/v1alpha3
kind: Gateway
metadata:
  name: public-gateway
  namespace: istio-system
spec:
  selector:
    istio: ingressgateway
  servers:
    - port:
        number: 80
        name: http
        protocol: HTTP
      hosts:
        - "*"

Salvați resursa de mai sus ca public-gateway.yaml și apoi aplicați-o:

kubectl apply -f ./public-gateway.yaml

Niciun sistem de producție nu ar trebui să ofere servicii pe Internet fără SSL. Pentru a securiza gateway-ul de intrare Istio cu cert-manager, CloudDNS și Let's Encrypt, vă rugăm să citiți documentație Flagger G.K.E.

Instalare flagger

Suplimentul GKE Istio nu include o instanță Prometheus care curăță serviciul de telemetrie Istio. Deoarece Flagger utilizează valorile Istio HTTP pentru a efectua analize canare, trebuie să implementați următoarea configurație Prometheus, similară cu cea care vine cu schema oficială Istio Helm.

REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/gke/istio-prometheus.yaml

Adăugați depozitul Flagger Helm:

helm repo add flagger [https://flagger.app](https://flagger.app/)

Extindeți Flagger la spațiul de nume istio-systemprin activarea notificărilor Slack:

helm upgrade -i flagger flagger/flagger 
--namespace=istio-system 
--set metricsServer=http://prometheus.istio-system:9090 
--set slack.url=https://hooks.slack.com/services/YOUR-WEBHOOK-ID 
--set slack.channel=general 
--set slack.user=flagger

Puteți instala Flagger în orice spațiu de nume atâta timp cât poate comunica cu serviciul Istio Prometheus pe portul 9090.

Flagger are un tablou de bord Grafana pentru analiza canar. Instalați Grafana în spațiul de nume istio-system:

helm upgrade -i flagger-grafana flagger/grafana 
--namespace=istio-system 
--set url=http://prometheus.istio-system:9090 
--set user=admin 
--set password=change-me

Expuneți Grafana printr-o poartă deschisă prin crearea unui serviciu virtual (înlocuiți example.com la domeniul dvs.):

apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
  name: grafana
  namespace: istio-system
spec:
  hosts:
    - "grafana.istio.example.com"
  gateways:
    - public-gateway.istio-system.svc.cluster.local
  http:
    - route:
        - destination:
            host: flagger-grafana

Salvați resursa de mai sus ca grafana-virtual-service.yaml și apoi aplicați-o:

kubectl apply -f ./grafana-virtual-service.yaml

La mutarea la http://grafana.istio.example.com în browser, ar trebui să fiți direcționat către pagina de conectare Grafana.

Implementarea aplicațiilor web cu Flagger

Flagger implementează Kubernetes și, opțional, se extinde automat (HPA), apoi creează o serie de obiecte (implementari Kubernetes, servicii ClusterIP și servicii virtuale Istio). Aceste obiecte expun aplicația la rețeaua de serviciu și controlează analiza și progresul Canary.

Implementări automate Canary cu Flagger și Istio

Creați un spațiu de nume de testare cu injecția Istio Sidecar activată:

REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/namespaces/test.yaml

Creați o implementare și un instrument de scalare automată a podului:

kubectl apply -f ${REPO}/artifacts/canaries/deployment.yaml
kubectl apply -f ${REPO}/artifacts/canaries/hpa.yaml

Implementați un serviciu de încărcare de testare pentru a genera trafic în timpul analizei canare:

helm upgrade -i flagger-loadtester flagger/loadtester 
--namepace=test

Creați o resursă canar personalizată (înlocuiți example.com la domeniul dvs.):

apiVersion: flagger.app/v1alpha3
kind: Canary
metadata:
  name: podinfo
  namespace: test
spec:
  targetRef:
    apiVersion: apps/v1
    kind: Deployment
    name: podinfo
  progressDeadlineSeconds: 60
  autoscalerRef:
    apiVersion: autoscaling/v2beta1
    kind: HorizontalPodAutoscaler
    name: podinfo
  service:
    port: 9898
    gateways:
    - public-gateway.istio-system.svc.cluster.local
    hosts:
    - app.istio.example.com
  canaryAnalysis:
    interval: 30s
    threshold: 10
    maxWeight: 50
    stepWeight: 5
    metrics:
    - name: istio_requests_total
      threshold: 99
      interval: 30s
    - name: istio_request_duration_seconds_bucket
      threshold: 500
      interval: 30s
    webhooks:
      - name: load-test
        url: http://flagger-loadtester.test/
        timeout: 5s
        metadata:
          cmd: "hey -z 1m -q 10 -c 2 http://podinfo.test:9898/"

Salvați resursa de mai sus ca podinfo-canary.yaml și apoi aplicați-o:

kubectl apply -f ./podinfo-canary.yaml

Analiza de mai sus, dacă are succes, va rula timp de cinci minute, verificând valorile HTTP la fiecare jumătate de minut. Puteți determina timpul minim necesar pentru validarea și promovarea unei implementări Canary folosind următoarea formulă: interval * (maxWeight / stepWeight). Câmpurile CRD Canary sunt documentate aici.

După câteva secunde, Flagger va crea obiecte canary:

# applied 
deployment.apps/podinfo
horizontalpodautoscaler.autoscaling/podinfo
canary.flagger.app/podinfo
# generated 
deployment.apps/podinfo-primary
horizontalpodautoscaler.autoscaling/podinfo-primary
service/podinfo
service/podinfo-canary
service/podinfo-primary
virtualservice.networking.istio.io/podinfo

Deschideți un browser și accesați app.istio.example.com, ar trebui să vedeți numărul versiunii aplicații demo.

Analiză și promovare automată a canarului

Flagger implementează o buclă de control care mută treptat traficul către Canary, în timp ce măsoară valorile cheie de performanță, cum ar fi rata de succes a solicitărilor HTTP, durata medie a cererii și sănătatea podului. Pe baza analizei KPI, canarul este promovat sau întrerupt, iar rezultatele analizei sunt publicate în Slack.

Implementări automate Canary cu Flagger și Istio

Implementarea Canary este declanșată atunci când unul dintre următoarele obiecte se modifică:

  • Implementați PodSpec (imagine container, comandă, porturi, mediu etc.)
  • ConfigMaps sunt montate ca volume sau mapate la variabile de mediu
  • Secretele sunt montate ca volume sau convertite în variabile de mediu

Rulați canary deploy când actualizați o imagine de container:

kubectl -n test set image deployment/podinfo 
podinfod=quay.io/stefanprodan/podinfo:1.4.1

Flagger detectează că versiunea de implementare s-a schimbat și începe să o analizeze:

kubectl -n test describe canary/podinfo

Events:

New revision detected podinfo.test
Scaling up podinfo.test
Waiting for podinfo.test rollout to finish: 0 of 1 updated replicas are available
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Advance podinfo.test canary weight 20
Advance podinfo.test canary weight 25
Advance podinfo.test canary weight 30
Advance podinfo.test canary weight 35
Advance podinfo.test canary weight 40
Advance podinfo.test canary weight 45
Advance podinfo.test canary weight 50
Copying podinfo.test template spec to podinfo-primary.test
Waiting for podinfo-primary.test rollout to finish: 1 of 2 updated replicas are available
Promotion completed! Scaling down podinfo.test

În timpul analizei, rezultatele Canary pot fi urmărite folosind Grafana:

Implementări automate Canary cu Flagger și Istio

Vă rugăm să rețineți că dacă se aplică noi modificări unei implementări în timpul analizei Canary, atunci Flagger va reporni faza de analiză.

Faceți o listă cu toți canarii din grupul dvs.:

watch kubectl get canaries --all-namespaces
NAMESPACE   NAME      STATUS        WEIGHT   LASTTRANSITIONTIME
test        podinfo   Progressing   15       2019-01-16T14:05:07Z
prod        frontend  Succeeded     0        2019-01-15T16:15:07Z
prod        backend   Failed        0        2019-01-14T17:05:07Z

Dacă ați activat notificările Slack, veți primi următoarele mesaje:

Implementări automate Canary cu Flagger și Istio

Rollback automat

În timpul analizei Canary, puteți genera erori sintetice HTTP 500 și latență mare de răspuns pentru a vedea dacă Flagger va opri implementarea.

Creați un pod de testare și faceți următoarele în el:

kubectl -n test run tester 
--image=quay.io/stefanprodan/podinfo:1.2.1 
-- ./podinfo --port=9898
kubectl -n test exec -it tester-xx-xx sh

Generarea erorilor HTTP 500:

watch curl http://podinfo-canary:9898/status/500

Generare întârziată:

watch curl http://podinfo-canary:9898/delay/1

Când numărul de verificări eșuate atinge pragul, traficul este direcționat înapoi către canalul principal, canarul este scalat la zero și implementarea este marcată ca eșuată.

Erorile Canary și vârfurile de latență sunt înregistrate ca evenimente Kubernetes și înregistrate de Flagger în format JSON:

kubectl -n istio-system logs deployment/flagger -f | jq .msg

Starting canary deployment for podinfo.test
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Halt podinfo.test advancement success rate 69.17% < 99%
Halt podinfo.test advancement success rate 61.39% < 99%
Halt podinfo.test advancement success rate 55.06% < 99%
Halt podinfo.test advancement success rate 47.00% < 99%
Halt podinfo.test advancement success rate 37.00% < 99%
Halt podinfo.test advancement request duration 1.515s > 500ms
Halt podinfo.test advancement request duration 1.600s > 500ms
Halt podinfo.test advancement request duration 1.915s > 500ms
Halt podinfo.test advancement request duration 2.050s > 500ms
Halt podinfo.test advancement request duration 2.515s > 500ms
Rolling back podinfo.test failed checks threshold reached 10
Canary failed! Scaling down podinfo.test

Dacă ați activat notificările Slack, veți primi un mesaj când termenul limită este depășit sau este atins numărul maxim de verificări nereușite în analiză:

Implementări automate Canary cu Flagger și Istio

în concluzie

Rularea unei rețele de servicii precum Istio în plus față de Kubernetes va oferi metrici, jurnale și protocoale automate, dar implementarea volumului de lucru depinde în continuare de instrumente externe. Flagger își propune să schimbe acest lucru prin adăugarea de capabilități Istio livrare progresivă.

Flagger este compatibil cu orice soluție Kubernetes CI/CD, iar analiza Canary poate fi extinsă cu ușurință webhook-uri pentru a efectua teste de integrare/acceptare a sistemului, teste de încărcare sau orice alte verificări personalizate. Deoarece Flagger este declarativ și răspunde la evenimentele Kubernetes, poate fi utilizat în conductele GitOps împreună cu Flux de țesut sau JenkinsX. Dacă utilizați JenkinsX, puteți instala Flagger cu suplimente jx.

Flagger acceptat Țesături și oferă desfășurări canare în Weave Cloud. Proiectul este testat pe GKE, EKS și bare metal cu kubeadm.

Dacă aveți sugestii pentru a îmbunătăți Flagger, trimiteți o problemă sau PR pe GitHub la stefanprodan/flagger. Contribuțiile sunt mai mult decât binevenite!

mulțumesc Ray Tsang.

Sursa: www.habr.com

Adauga un comentariu