Desplegaments canaris automàtics amb Flagger i Istio

Desplegaments canaris automàtics amb Flagger i Istio

El CD és reconegut com una pràctica de programari empresarial i és una evolució natural dels principis de CI establerts. Tanmateix, el CD encara és força rar, potser a causa de la complexitat de la gestió i la por que els desplegaments fallits afectin la disponibilitat del sistema.

Flager és un operador de Kubernetes de codi obert que té com a objectiu eliminar les relacions confuses. Automatitza la promoció de desplegaments canaris mitjançant compensacions de trànsit d'Istio i mètriques de Prometheus per analitzar el comportament de l'aplicació durant un llançament gestionat.

A continuació es mostra una guia pas a pas per configurar i utilitzar Flagger a Google Kubernetes Engine (GKE).

Configuració d'un clúster de Kubernetes

Comenceu creant un clúster de GKE amb el complement Istio (si no teniu cap compte de GCP, podeu registrar-vos aquí - rebre crèdits gratuïts).

Inicieu la sessió a Google Cloud, creeu un projecte i activeu-ne la facturació. Instal·leu la utilitat de línia d'ordres gcloud i configura el teu projecte amb gcloud init.

Definiu el projecte, l'àrea de càlcul i la zona per defecte (substituïu PROJECT_ID pel teu projecte):

gcloud config set project PROJECT_ID
gcloud config set compute/region us-central1
gcloud config set compute/zone us-central1-a

Activeu el servei GKE i creeu un clúster amb els complements HPA i Istio:

gcloud services enable container.googleapis.com
K8S_VERSION=$(gcloud beta container get-server-config --format=json | jq -r '.validMasterVersions[0]')
gcloud beta container clusters create istio 
--cluster-version=${K8S_VERSION} 
--zone=us-central1-a 
--num-nodes=2 
--machine-type=n1-standard-2 
--disk-size=30 
--enable-autorepair 
--no-enable-cloud-logging 
--no-enable-cloud-monitoring 
--addons=HorizontalPodAutoscaling,Istio 
--istio-config=auth=MTLS_PERMISSIVE

L'ordre anterior crearà un grup de nodes predeterminat format per dues màquines virtuals n1-standard-2 (vCPU: 2, RAM 7,5 GB, disc: 30 GB). Idealment, els components Istio haurien d'estar aïllats de les seves càrregues de treball, però no hi ha una manera fàcil d'executar pods Istio en un grup de nodes dedicat. Els manifests d'Istio es consideren de només lectura i GKE revertirà qualsevol canvi, com ara l'enllaç a un node o la separació d'un pod.

Configureu les credencials per a kubectl:

gcloud container clusters get-credentials istio

Creeu un enllaç de rol d'administrador de clúster:

kubectl create clusterrolebinding "cluster-admin-$(whoami)" 
--clusterrole=cluster-admin 
--user="$(gcloud config get-value core/account)"

Instal·leu l'eina de línia d'ordres Timó:

brew install kubernetes-helm

Homebrew 2.0 ara també està disponible per a Linux.

Creeu un compte de servei i un enllaç de rol de clúster per a Tiller:

kubectl -n kube-system create sa tiller && 
kubectl create clusterrolebinding tiller-cluster-rule 
--clusterrole=cluster-admin 
--serviceaccount=kube-system:tiller

Amplieu Tiller a l'espai de noms kube-system:

helm init --service-account tiller

Hauríeu de considerar utilitzar SSL entre Helm i Tiller. Per obtenir més informació sobre com protegir la instal·lació de Helm, vegeu docs.helm.sh

Confirmeu la configuració:

kubectl -n istio-system get svc

Al cap d'uns segons, GCP hauria d'assignar una adreça IP externa al servei istio-ingressgateway.

Configuració d'una passarel·la d'entrada Istio

Creeu una adreça IP estàtica amb el nom istio-gatewayutilitzant l'adreça IP de la passarel·la d'Istio:

export GATEWAY_IP=$(kubectl -n istio-system get svc/istio-ingressgateway -ojson | jq -r .status.loadBalancer.ingress[0].ip)
gcloud compute addresses create istio-gateway --addresses ${GATEWAY_IP} --region us-central1

Ara necessiteu un domini d'Internet i accés al vostre registrador de DNS. Afegiu dos registres A (substituïu example.com al teu domini):

istio.example.com   A ${GATEWAY_IP}
*.istio.example.com A ${GATEWAY_IP}

Verifiqueu que el comodí DNS funcioni:

watch host test.istio.example.com

Creeu una passarel·la d'Istio genèrica per proporcionar serveis fora de la malla de servei mitjançant HTTP:

apiVersion: networking.istio.io/v1alpha3
kind: Gateway
metadata:
  name: public-gateway
  namespace: istio-system
spec:
  selector:
    istio: ingressgateway
  servers:
    - port:
        number: 80
        name: http
        protocol: HTTP
      hosts:
        - "*"

Deseu el recurs anterior com a public-gateway.yaml i després apliqueu-lo:

kubectl apply -f ./public-gateway.yaml

Cap sistema de producció hauria de proporcionar serveis a Internet sense SSL. Per protegir la vostra passarel·la d'entrada Istio amb cert-manager, CloudDNS i Let's Encrypt, llegiu documentació Bandera G.K.E.

Instal·lació de senyaladors

El complement de GKE Istio no inclou la instància de Prometheus que neteja el servei de telemetria Istio. Com que Flagger utilitza mètriques HTTP d'Istio per realitzar anàlisis canàries, heu de desplegar la següent configuració de Prometheus, similar a la que inclou l'esquema oficial d'Istio Helm.

REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/gke/istio-prometheus.yaml

Afegiu el dipòsit de Flagger Helm:

helm repo add flagger [https://flagger.app](https://flagger.app/)

Amplieu el indicador a l'espai de noms istio-systemactivant les notificacions de Slack:

helm upgrade -i flagger flagger/flagger 
--namespace=istio-system 
--set metricsServer=http://prometheus.istio-system:9090 
--set slack.url=https://hooks.slack.com/services/YOUR-WEBHOOK-ID 
--set slack.channel=general 
--set slack.user=flagger

Podeu instal·lar Flagger en qualsevol espai de noms sempre que es pugui comunicar amb el servei Istio Prometheus al port 9090.

Flagger té un tauler de control de Grafana per a l'anàlisi de canaris. Instal·leu Grafana a l'espai de noms istio-system:

helm upgrade -i flagger-grafana flagger/grafana 
--namespace=istio-system 
--set url=http://prometheus.istio-system:9090 
--set user=admin 
--set password=change-me

Exposa Grafana a través d'una passarel·la oberta mitjançant la creació d'un servei virtual (substituïu example.com al teu domini):

apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
  name: grafana
  namespace: istio-system
spec:
  hosts:
    - "grafana.istio.example.com"
  gateways:
    - public-gateway.istio-system.svc.cluster.local
  http:
    - route:
        - destination:
            host: flagger-grafana

Deseu el recurs anterior com a grafana-virtual-service.yaml i després apliqueu-lo:

kubectl apply -f ./grafana-virtual-service.yaml

En anar a http://grafana.istio.example.com El vostre navegador us hauria de redirigir a la pàgina d'inici de sessió de Grafana.

Desplegament d'aplicacions web amb Flagger

Flagger desplega Kubernetes i, si és necessari, l'escalat automàtic horitzontal (HPA) i després crea una sèrie d'objectes (desplegaments de Kubernetes, serveis ClusterIP i serveis virtuals Istio). Aquests objectes exposen l'aplicació a la malla de servei i gestionen l'anàlisi i la promoció canària.

Desplegaments canaris automàtics amb Flagger i Istio

Creeu un espai de noms de prova amb la implementació Istio Sidecar activada:

REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/namespaces/test.yaml

Creeu un desplegament i una eina automàtica d'escala horitzontal per al pod:

kubectl apply -f ${REPO}/artifacts/canaries/deployment.yaml
kubectl apply -f ${REPO}/artifacts/canaries/hpa.yaml

Desplegueu un servei de prova de càrrega per generar trànsit durant l'anàlisi canària:

helm upgrade -i flagger-loadtester flagger/loadtester 
--namepace=test

Creeu un recurs canari personalitzat (substituïu example.com al teu domini):

apiVersion: flagger.app/v1alpha3
kind: Canary
metadata:
  name: podinfo
  namespace: test
spec:
  targetRef:
    apiVersion: apps/v1
    kind: Deployment
    name: podinfo
  progressDeadlineSeconds: 60
  autoscalerRef:
    apiVersion: autoscaling/v2beta1
    kind: HorizontalPodAutoscaler
    name: podinfo
  service:
    port: 9898
    gateways:
    - public-gateway.istio-system.svc.cluster.local
    hosts:
    - app.istio.example.com
  canaryAnalysis:
    interval: 30s
    threshold: 10
    maxWeight: 50
    stepWeight: 5
    metrics:
    - name: istio_requests_total
      threshold: 99
      interval: 30s
    - name: istio_request_duration_seconds_bucket
      threshold: 500
      interval: 30s
    webhooks:
      - name: load-test
        url: http://flagger-loadtester.test/
        timeout: 5s
        metadata:
          cmd: "hey -z 1m -q 10 -c 2 http://podinfo.test:9898/"

Deseu el recurs anterior com a podinfo-canary.yaml i després apliqueu-lo:

kubectl apply -f ./podinfo-canary.yaml

L'anàlisi anterior, si té èxit, s'executarà durant cinc minuts, comprovant les mètriques HTTP cada mig minut. Podeu determinar el temps mínim necessari per provar i promoure un desplegament canari mitjançant la fórmula següent: interval * (maxWeight / stepWeight). Els camps de CRD de Canary estan documentats aquí.

Després d'un parell de segons, Flagger crearà objectes canaris:

# applied 
deployment.apps/podinfo
horizontalpodautoscaler.autoscaling/podinfo
canary.flagger.app/podinfo
# generated 
deployment.apps/podinfo-primary
horizontalpodautoscaler.autoscaling/podinfo-primary
service/podinfo
service/podinfo-canary
service/podinfo-primary
virtualservice.networking.istio.io/podinfo

Obriu el vostre navegador i aneu a app.istio.example.com, hauríeu de veure el número de versió aplicacions de demostració.

Anàlisi i promoció automàtica dels canaris

Flagger implementa un bucle de control que mou gradualment el trànsit cap al canari mentre mesura indicadors clau de rendiment, com ara la taxa d'èxit de la sol·licitud HTTP, la durada mitjana de la sol·licitud i la salut del pod. A partir de l'anàlisi de KPI, el canari es promociona o es cancel·la, i els resultats de l'anàlisi es publiquen a Slack.

Desplegaments canaris automàtics amb Flagger i Istio

El desplegament de Canary s'activa quan canvia un dels objectes següents:

  • Desplegueu PodSpec (imatge del contenidor, comanda, ports, env, etc.)
  • Els ConfigMaps es munten com a volums o es converteixen en variables d'entorn
  • Els secrets es munten com a volums o es converteixen en variables d'entorn

Executeu el desplegament canari quan actualitzeu la imatge del contenidor:

kubectl -n test set image deployment/podinfo 
podinfod=quay.io/stefanprodan/podinfo:1.4.1

Flagger detecta que la versió de desplegament ha canviat i comença a analitzar-la:

kubectl -n test describe canary/podinfo

Events:

New revision detected podinfo.test
Scaling up podinfo.test
Waiting for podinfo.test rollout to finish: 0 of 1 updated replicas are available
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Advance podinfo.test canary weight 20
Advance podinfo.test canary weight 25
Advance podinfo.test canary weight 30
Advance podinfo.test canary weight 35
Advance podinfo.test canary weight 40
Advance podinfo.test canary weight 45
Advance podinfo.test canary weight 50
Copying podinfo.test template spec to podinfo-primary.test
Waiting for podinfo-primary.test rollout to finish: 1 of 2 updated replicas are available
Promotion completed! Scaling down podinfo.test

Durant l'anàlisi, els resultats canaris es poden controlar mitjançant Grafana:

Desplegaments canaris automàtics amb Flagger i Istio

Tingueu en compte: si s'apliquen nous canvis al desplegament durant l'anàlisi canària, Flagger reiniciarà la fase d'anàlisi.

Feu una llista de tots els canaris del vostre grup:

watch kubectl get canaries --all-namespaces
NAMESPACE   NAME      STATUS        WEIGHT   LASTTRANSITIONTIME
test        podinfo   Progressing   15       2019-01-16T14:05:07Z
prod        frontend  Succeeded     0        2019-01-15T16:15:07Z
prod        backend   Failed        0        2019-01-14T17:05:07Z

Si heu activat les notificacions de Slack, rebreu els missatges següents:

Desplegaments canaris automàtics amb Flagger i Istio

Retrocés automàtic

Durant l'anàlisi canària, podeu generar errors sintètics HTTP 500 i una alta latència de resposta per comprovar si Flagger aturarà el desplegament.

Creeu un pod de prova i feu-hi el següent:

kubectl -n test run tester 
--image=quay.io/stefanprodan/podinfo:1.2.1 
-- ./podinfo --port=9898
kubectl -n test exec -it tester-xx-xx sh

Generació d'errors HTTP 500:

watch curl http://podinfo-canary:9898/status/500

Generació retardada:

watch curl http://podinfo-canary:9898/delay/1

Quan el nombre de comprovacions fallides arriba a un llindar, el trànsit es torna al canal principal, el canari s'escala a zero i el desplegament es marca com a fallit.

Els errors canaris i els pics de latència es registren com a esdeveniments de Kubernetes i Flagger els enregistra en format JSON:

kubectl -n istio-system logs deployment/flagger -f | jq .msg

Starting canary deployment for podinfo.test
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Halt podinfo.test advancement success rate 69.17% < 99%
Halt podinfo.test advancement success rate 61.39% < 99%
Halt podinfo.test advancement success rate 55.06% < 99%
Halt podinfo.test advancement success rate 47.00% < 99%
Halt podinfo.test advancement success rate 37.00% < 99%
Halt podinfo.test advancement request duration 1.515s > 500ms
Halt podinfo.test advancement request duration 1.600s > 500ms
Halt podinfo.test advancement request duration 1.915s > 500ms
Halt podinfo.test advancement request duration 2.050s > 500ms
Halt podinfo.test advancement request duration 2.515s > 500ms
Rolling back podinfo.test failed checks threshold reached 10
Canary failed! Scaling down podinfo.test

Si heu activat les notificacions de Slack, rebràs un missatge quan se superi el termini per completar o assolir el nombre màxim de revisions fallides en una anàlisi:

Desplegaments canaris automàtics amb Flagger i Istio

en conclusió

L'execució d'una malla de servei com Istio a sobre de Kubernetes proporcionarà mètriques, registres i registres automàtics, però la implementació de càrregues de treball encara depèn d'eines externes. Flagger pretén canviar això afegint capacitats d'Istio lliurament progressiu.

Flagger és compatible amb qualsevol solució de CI/CD per a Kubernetes, i amb l'anàlisi Canary es pot ampliar fàcilment webhooks per realitzar proves d'integració/acceptació del sistema, proves de càrrega o qualsevol altra prova personalitzada. Com que Flagger és declaratiu i respon als esdeveniments de Kubernetes, es pot utilitzar a les canalitzacions de GitOps juntament amb Teixir Flux o Jenkins X. Si utilitzeu JenkinsX, podeu instal·lar Flagger amb complements jx.

Marcador compatible Teixits i ofereix desplegaments canaris a Teixir núvol. El projecte es prova a GKE, EKS i bare metal amb kubeadm.

Si teniu suggeriments per millorar Flagger, envieu un problema o PR a GitHub a stefanprodan/flagger. Les aportacions són més que benvingudes!

Gràcies Ray Tsang.

Font: www.habr.com

Afegeix comentari