Distribuzioni canary automatiche con Flagger e Istio

Distribuzioni canary automatiche con Flagger e Istio

Il CD è riconosciuto come una pratica software aziendale ed è una naturale evoluzione dei principi CI consolidati. Tuttavia, il CD è ancora piuttosto raro, forse a causa della complessità della gestione e del timore che implementazioni fallite incidano sulla disponibilità del sistema.

Segnalatore è un operatore Kubernetes open source che mira a eliminare le relazioni confuse. Automatizza la promozione delle distribuzioni Canary utilizzando gli offset del traffico Istio e le metriche Prometheus per analizzare il comportamento delle applicazioni durante un'implementazione gestita.

Di seguito è riportata una guida passo passo per la configurazione e l'utilizzo di Flagger su Google Kubernetes Engine (GKE).

Configurazione di un cluster Kubernetes

Inizi creando un cluster GKE con il componente aggiuntivo Istio (se non disponi di un account GCP, puoi registrarti qui - ricevere crediti gratuiti).

Accedi a Google Cloud, crea un progetto e abilitane la fatturazione. Installa l'utilità della riga di comando gcloud e configura il tuo progetto con gcloud init.

Imposta il progetto, l'area di calcolo e la zona predefiniti (sostituisci PROJECT_ID per il tuo progetto):

gcloud config set project PROJECT_ID
gcloud config set compute/region us-central1
gcloud config set compute/zone us-central1-a

Abilita il servizio GKE e crea un cluster con i componenti aggiuntivi HPA e Istio:

gcloud services enable container.googleapis.com
K8S_VERSION=$(gcloud beta container get-server-config --format=json | jq -r '.validMasterVersions[0]')
gcloud beta container clusters create istio 
--cluster-version=${K8S_VERSION} 
--zone=us-central1-a 
--num-nodes=2 
--machine-type=n1-standard-2 
--disk-size=30 
--enable-autorepair 
--no-enable-cloud-logging 
--no-enable-cloud-monitoring 
--addons=HorizontalPodAutoscaling,Istio 
--istio-config=auth=MTLS_PERMISSIVE

Il comando precedente creerà un pool di nodi predefinito composto da due VM n1-standard-2 (vCPU: 2, RAM 7,5 GB, disco: 30 GB). Idealmente, i componenti Istio dovrebbero essere isolati dai relativi carichi di lavoro, ma non esiste un modo semplice per eseguire i pod Istio su un pool di nodi dedicato. I manifest Istio sono considerati di sola lettura e GKE annullerà qualsiasi modifica, ad esempio l'associazione a un nodo o la disconnessione da un pod.

Configura le credenziali per kubectl:

gcloud container clusters get-credentials istio

Crea un'associazione del ruolo di amministratore del cluster:

kubectl create clusterrolebinding "cluster-admin-$(whoami)" 
--clusterrole=cluster-admin 
--user="$(gcloud config get-value core/account)"

Installa lo strumento da riga di comando Casco:

brew install kubernetes-helm

Homebrew 2.0 è ora disponibile anche per Linux.

Crea un account di servizio e un'associazione del ruolo cluster per Tiller:

kubectl -n kube-system create sa tiller && 
kubectl create clusterrolebinding tiller-cluster-rule 
--clusterrole=cluster-admin 
--serviceaccount=kube-system:tiller

Espandi Tiller nello spazio dei nomi kube-system:

helm init --service-account tiller

Dovresti considerare l'utilizzo di SSL tra Helm e Tiller. Per ulteriori informazioni sulla protezione dell'installazione di Helm, vedere docs.helm.sh

Conferma le impostazioni:

kubectl -n istio-system get svc

Dopo alcuni secondi, GCP dovrebbe assegnare un indirizzo IP esterno al servizio istio-ingressgateway.

Configurazione di un gateway di ingresso Istio

Crea un indirizzo IP statico con il nome istio-gatewayutilizzando l'indirizzo IP del gateway Istio:

export GATEWAY_IP=$(kubectl -n istio-system get svc/istio-ingressgateway -ojson | jq -r .status.loadBalancer.ingress[0].ip)
gcloud compute addresses create istio-gateway --addresses ${GATEWAY_IP} --region us-central1

Ora hai bisogno di un dominio Internet e dell'accesso al tuo registrar DNS. Aggiungi due record A (sostituisci example.com al tuo dominio):

istio.example.com   A ${GATEWAY_IP}
*.istio.example.com A ${GATEWAY_IP}

Verifica che il carattere jolly DNS funzioni:

watch host test.istio.example.com

Crea un gateway Istio generico per fornire servizi all'esterno della rete di servizi su HTTP:

apiVersion: networking.istio.io/v1alpha3
kind: Gateway
metadata:
  name: public-gateway
  namespace: istio-system
spec:
  selector:
    istio: ingressgateway
  servers:
    - port:
        number: 80
        name: http
        protocol: HTTP
      hosts:
        - "*"

Salva la risorsa sopra come public-gateway.yaml e quindi applicala:

kubectl apply -f ./public-gateway.yaml

Nessun sistema di produzione dovrebbe fornire servizi su Internet senza SSL. Per proteggere il tuo gateway di ingresso Istio con cert-manager, CloudDNS e Let's Encrypt, leggi documentazione Segnalatore G.K.E.

Installazione del segnalatore

Il componente aggiuntivo GKE Istio non include l'istanza Prometheus che ripulisce il servizio di telemetria Istio. Poiché Flagger utilizza i parametri HTTP Istio per eseguire l'analisi canary, è necessario distribuire la seguente configurazione Prometheus, simile a quella fornita con lo schema Istio Helm ufficiale.

REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/gke/istio-prometheus.yaml

Aggiungi il repository Helm Flagger:

helm repo add flagger [https://flagger.app](https://flagger.app/)

Espandi Flagger nello spazio dei nomi istio-systemabilitando le notifiche Slack:

helm upgrade -i flagger flagger/flagger 
--namespace=istio-system 
--set metricsServer=http://prometheus.istio-system:9090 
--set slack.url=https://hooks.slack.com/services/YOUR-WEBHOOK-ID 
--set slack.channel=general 
--set slack.user=flagger

Puoi installare Flagger in qualsiasi spazio dei nomi purché possa comunicare con il servizio Istio Prometheus sulla porta 9090.

Flagger dispone di una dashboard Grafana per l'analisi canary. Installa Grafana nello spazio dei nomi istio-system:

helm upgrade -i flagger-grafana flagger/grafana 
--namespace=istio-system 
--set url=http://prometheus.istio-system:9090 
--set user=admin 
--set password=change-me

Esporre Grafana attraverso un gateway aperto creando un servizio virtuale (replace example.com al tuo dominio):

apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
  name: grafana
  namespace: istio-system
spec:
  hosts:
    - "grafana.istio.example.com"
  gateways:
    - public-gateway.istio-system.svc.cluster.local
  http:
    - route:
        - destination:
            host: flagger-grafana

Salva la risorsa sopra come grafana-virtual-service.yaml e quindi applicala:

kubectl apply -f ./grafana-virtual-service.yaml

Quando andrò a http://grafana.istio.example.com Il tuo browser dovrebbe reindirizzarti alla pagina di accesso di Grafana.

Distribuzione di applicazioni Web con Flagger

Il segnalatore distribuisce Kubernetes e, se necessario, la scalabilità automatica orizzontale (HPA), quindi crea una serie di oggetti (distribuzioni Kubernetes, servizi ClusterIP e servizi virtuali Istio). Questi oggetti espongono l'applicazione alla rete di servizi e gestiscono l'analisi e la promozione dei canary.

Distribuzioni canary automatiche con Flagger e Istio

Crea uno spazio dei nomi di test con l'implementazione Istio Sidecar abilitata:

REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/namespaces/test.yaml

Crea una distribuzione e uno strumento di ridimensionamento orizzontale automatico per il pod:

kubectl apply -f ${REPO}/artifacts/canaries/deployment.yaml
kubectl apply -f ${REPO}/artifacts/canaries/hpa.yaml

Distribuisci un servizio di test di carico per generare traffico durante l'analisi canary:

helm upgrade -i flagger-loadtester flagger/loadtester 
--namepace=test

Crea una risorsa Canary personalizzata (sostituisci example.com al tuo dominio):

apiVersion: flagger.app/v1alpha3
kind: Canary
metadata:
  name: podinfo
  namespace: test
spec:
  targetRef:
    apiVersion: apps/v1
    kind: Deployment
    name: podinfo
  progressDeadlineSeconds: 60
  autoscalerRef:
    apiVersion: autoscaling/v2beta1
    kind: HorizontalPodAutoscaler
    name: podinfo
  service:
    port: 9898
    gateways:
    - public-gateway.istio-system.svc.cluster.local
    hosts:
    - app.istio.example.com
  canaryAnalysis:
    interval: 30s
    threshold: 10
    maxWeight: 50
    stepWeight: 5
    metrics:
    - name: istio_requests_total
      threshold: 99
      interval: 30s
    - name: istio_request_duration_seconds_bucket
      threshold: 500
      interval: 30s
    webhooks:
      - name: load-test
        url: http://flagger-loadtester.test/
        timeout: 5s
        metadata:
          cmd: "hey -z 1m -q 10 -c 2 http://podinfo.test:9898/"

Salva la risorsa sopra come podinfo-canary.yaml e poi applicala:

kubectl apply -f ./podinfo-canary.yaml

L'analisi precedente, in caso di esito positivo, verrà eseguita per cinque minuti, controllando i parametri HTTP ogni mezzo minuto. Puoi determinare il tempo minimo richiesto per testare e promuovere una distribuzione Canary utilizzando la seguente formula: interval * (maxWeight / stepWeight). I campi CRD Canary sono documentati qui.

Dopo un paio di secondi, Flagger creerà oggetti canary:

# applied 
deployment.apps/podinfo
horizontalpodautoscaler.autoscaling/podinfo
canary.flagger.app/podinfo
# generated 
deployment.apps/podinfo-primary
horizontalpodautoscaler.autoscaling/podinfo-primary
service/podinfo
service/podinfo-canary
service/podinfo-primary
virtualservice.networking.istio.io/podinfo

Apri il browser e vai su app.istio.example.com, dovresti vedere il numero di versione applicazioni dimostrative.

Analisi e promozione canary automatiche

Flagger implementa un ciclo di controllo che sposta gradualmente il traffico verso il canary misurando gli indicatori chiave di prestazione come il tasso di successo delle richieste HTTP, la durata media delle richieste e l'integrità del pod. In base all'analisi KPI, il canary viene promosso o terminato e i risultati dell'analisi vengono pubblicati in Slack.

Distribuzioni canary automatiche con Flagger e Istio

La distribuzione Canary viene attivata quando uno dei seguenti oggetti cambia:

  • Distribuisci PodSpec (immagine del contenitore, comando, porte, ambiente, ecc.)
  • I ConfigMap vengono montati come volumi o convertiti in variabili di ambiente
  • I segreti vengono montati come volumi o convertiti in variabili di ambiente

Esegui la distribuzione canary durante l'aggiornamento dell'immagine del contenitore:

kubectl -n test set image deployment/podinfo 
podinfod=quay.io/stefanprodan/podinfo:1.4.1

Il segnalatore rileva che la versione della distribuzione è cambiata e inizia ad analizzarla:

kubectl -n test describe canary/podinfo

Events:

New revision detected podinfo.test
Scaling up podinfo.test
Waiting for podinfo.test rollout to finish: 0 of 1 updated replicas are available
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Advance podinfo.test canary weight 20
Advance podinfo.test canary weight 25
Advance podinfo.test canary weight 30
Advance podinfo.test canary weight 35
Advance podinfo.test canary weight 40
Advance podinfo.test canary weight 45
Advance podinfo.test canary weight 50
Copying podinfo.test template spec to podinfo-primary.test
Waiting for podinfo-primary.test rollout to finish: 1 of 2 updated replicas are available
Promotion completed! Scaling down podinfo.test

Durante l'analisi, i risultati dei canarini possono essere monitorati utilizzando Grafana:

Distribuzioni canary automatiche con Flagger e Istio

Nota: se vengono applicate nuove modifiche alla distribuzione durante l'analisi canary, Flagger riavvierà la fase di analisi.

Crea un elenco di tutti i canary nel tuo cluster:

watch kubectl get canaries --all-namespaces
NAMESPACE   NAME      STATUS        WEIGHT   LASTTRANSITIONTIME
test        podinfo   Progressing   15       2019-01-16T14:05:07Z
prod        frontend  Succeeded     0        2019-01-15T16:15:07Z
prod        backend   Failed        0        2019-01-14T17:05:07Z

Se hai abilitato le notifiche Slack, riceverai i seguenti messaggi:

Distribuzioni canary automatiche con Flagger e Istio

Rollback automatico

Durante l'analisi Canary, puoi generare errori HTTP 500 sintetici e un'elevata latenza di risposta per verificare se Flagger interromperà la distribuzione.

Crea un pod di test ed esegui le seguenti operazioni al suo interno:

kubectl -n test run tester 
--image=quay.io/stefanprodan/podinfo:1.2.1 
-- ./podinfo --port=9898
kubectl -n test exec -it tester-xx-xx sh

Generazione di errori HTTP 500:

watch curl http://podinfo-canary:9898/status/500

Generazione del ritardo:

watch curl http://podinfo-canary:9898/delay/1

Quando il numero di controlli non riusciti raggiunge una soglia, il traffico viene instradato nuovamente al canale primario, il canary viene ridotto a zero e la distribuzione viene contrassegnata come non riuscita.

Gli errori Canary e i picchi di latenza vengono registrati come eventi Kubernetes e registrati da Flagger in formato JSON:

kubectl -n istio-system logs deployment/flagger -f | jq .msg

Starting canary deployment for podinfo.test
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Halt podinfo.test advancement success rate 69.17% < 99%
Halt podinfo.test advancement success rate 61.39% < 99%
Halt podinfo.test advancement success rate 55.06% < 99%
Halt podinfo.test advancement success rate 47.00% < 99%
Halt podinfo.test advancement success rate 37.00% < 99%
Halt podinfo.test advancement request duration 1.515s > 500ms
Halt podinfo.test advancement request duration 1.600s > 500ms
Halt podinfo.test advancement request duration 1.915s > 500ms
Halt podinfo.test advancement request duration 2.050s > 500ms
Halt podinfo.test advancement request duration 2.515s > 500ms
Rolling back podinfo.test failed checks threshold reached 10
Canary failed! Scaling down podinfo.test

Se hai abilitato le notifiche Slack, riceverai un messaggio quando viene superata la scadenza per il completamento o il raggiungimento del numero massimo di revisioni fallite in un'analisi:

Distribuzioni canary automatiche con Flagger e Istio

insomma

L'esecuzione di una rete di servizi come Istio su Kubernetes fornirà parametri, log e log automatici, ma la distribuzione dei carichi di lavoro dipende ancora da strumenti esterni. Flagger mira a cambiare questa situazione aggiungendo funzionalità Istio consegna progressiva.

Flagger è compatibile con qualsiasi soluzione CI/CD per Kubernetes e l'analisi canary può essere facilmente estesa webhook per eseguire test di integrazione/accettazione del sistema, test di carico o qualsiasi altro test personalizzato. Poiché Flagger è dichiarativo e risponde agli eventi Kubernetes, può essere utilizzato nelle pipeline GitOps insieme a Flusso di tessitura o Jenkins X. Se utilizzi JenkinsX, puoi installare Flagger con i componenti aggiuntivi jx.

Segnalatore supportato Intrecci e fornisce implementazioni Canary in Tessere nuvola. Il progetto è testato su GKE, EKS e bare metal con kubeadm.

Se hai suggerimenti per migliorare Flagger, invia un problema o un PR su GitHub all'indirizzo stefanprodan/flagger. I contributi sono più che benvenuti!

Grazie Ray Tsang.

Fonte: habr.com

Aggiungi un commento