Automatische Canary-Bereitstellungen mit Flagger und Istio

Automatische Canary-Bereitstellungen mit Flagger und Istio

CD ist als Unternehmenssoftwarepraxis anerkannt und das Ergebnis einer natürlichen Weiterentwicklung etablierter CI-Prinzipien. Allerdings ist CD immer noch recht selten, möglicherweise aufgrund der Komplexität der Verwaltung und der Angst vor fehlgeschlagenen Bereitstellungen, die die Systemverfügbarkeit beeinträchtigen könnten.

Flagger ist ein Open-Source-Kubernetes-Betreiber, der darauf abzielt, verwirrende Beziehungen zu beseitigen. Es automatisiert die Förderung von Canary-Bereitstellungen mithilfe von Istio-Traffic-Offset und Prometheus-Metriken, um das Anwendungsverhalten während eines verwalteten Rollouts zu analysieren.

Nachfolgend finden Sie eine Schritt-für-Schritt-Anleitung zum Einrichten und Verwenden von Flagger auf Google Kubernetes Engine (GKE).

Einrichten eines Kubernetes-Clusters

Sie beginnen mit der Erstellung eines GKE-Clusters mit dem Istio-Add-on (wenn Sie kein GCP-Konto haben, können Sie sich anmelden). hier - um kostenlose Credits zu erhalten).

Melden Sie sich bei Google Cloud an, erstellen Sie ein Projekt und aktivieren Sie die Abrechnung dafür. Installieren Sie das Befehlszeilendienstprogramm gcloud und richten Sie Ihr Projekt mit ein gcloud init.

Legen Sie Standardprojekt, Rechenbereich und Zone fest (ersetzen PROJECT_ID für Ihr Projekt):

gcloud config set project PROJECT_ID
gcloud config set compute/region us-central1
gcloud config set compute/zone us-central1-a

Aktivieren Sie den GKE-Dienst und erstellen Sie einen Cluster mit HPA- und Istio-Add-ons:

gcloud services enable container.googleapis.com
K8S_VERSION=$(gcloud beta container get-server-config --format=json | jq -r '.validMasterVersions[0]')
gcloud beta container clusters create istio 
--cluster-version=${K8S_VERSION} 
--zone=us-central1-a 
--num-nodes=2 
--machine-type=n1-standard-2 
--disk-size=30 
--enable-autorepair 
--no-enable-cloud-logging 
--no-enable-cloud-monitoring 
--addons=HorizontalPodAutoscaling,Istio 
--istio-config=auth=MTLS_PERMISSIVE

Der obige Befehl erstellt einen Standardknotenpool mit zwei VMs n1-standard-2 (vCPU: 2, RAM 7,5 GB, Festplatte: 30 GB). Idealerweise sollten Sie Istio-Komponenten von Ihren Arbeitslasten isolieren, es gibt jedoch keine einfache Möglichkeit, Istio-Pods in einem dedizierten Knotenpool auszuführen. Istio-Manifeste gelten als schreibgeschützt und GKE macht alle Änderungen rückgängig, z. B. das Verknüpfen mit einem Knoten oder das Trennen von einem Pod.

Anmeldeinformationen einrichten für kubectl:

gcloud container clusters get-credentials istio

Erstellen Sie eine Cluster-Administrator-Rollenbindung:

kubectl create clusterrolebinding "cluster-admin-$(whoami)" 
--clusterrole=cluster-admin 
--user="$(gcloud config get-value core/account)"

Installieren Sie das Befehlszeilentool Helm:

brew install kubernetes-helm

Homebrew 2.0 ist jetzt auch für verfügbar Linux.

Erstellen Sie ein Dienstkonto und eine Cluster-Rollenbindung für Tiller:

kubectl -n kube-system create sa tiller && 
kubectl create clusterrolebinding tiller-cluster-rule 
--clusterrole=cluster-admin 
--serviceaccount=kube-system:tiller

Erweitern Sie Tiller im Namespace kube-system:

helm init --service-account tiller

Sie sollten die Verwendung von SSL zwischen Helm und Tiller in Betracht ziehen. Weitere Informationen zum Schutz Ihrer Helm-Installation finden Sie unter docs.helm.sh

Einstellungen bestätigen:

kubectl -n istio-system get svc

Nach einigen Sekunden sollte GCP dem Dienst eine externe IP-Adresse zuweisen istio-ingressgateway.

Konfigurieren des Istio-Ingress-Gateways

Erstellen Sie eine statische IP-Adresse mit einem Namen istio-gatewayVerwenden der IP-Adresse des Istio-Gateways:

export GATEWAY_IP=$(kubectl -n istio-system get svc/istio-ingressgateway -ojson | jq -r .status.loadBalancer.ingress[0].ip)
gcloud compute addresses create istio-gateway --addresses ${GATEWAY_IP} --region us-central1

Jetzt benötigen Sie eine Internetdomäne und Zugriff auf Ihren DNS-Registrar. Fügen Sie zwei A-Datensätze hinzu (ersetzen Sie example.com zu Ihrer Domain):

istio.example.com   A ${GATEWAY_IP}
*.istio.example.com A ${GATEWAY_IP}

Überprüfen Sie, ob der DNS-Platzhalter funktioniert:

watch host test.istio.example.com

Erstellen Sie ein generisches Istio-Gateway, um Dienste außerhalb des Service Mesh über HTTP bereitzustellen:

apiVersion: networking.istio.io/v1alpha3
kind: Gateway
metadata:
  name: public-gateway
  namespace: istio-system
spec:
  selector:
    istio: ingressgateway
  servers:
    - port:
        number: 80
        name: http
        protocol: HTTP
      hosts:
        - "*"

Speichern Sie die obige Ressource als public-gateway.yaml und wenden Sie sie dann an:

kubectl apply -f ./public-gateway.yaml

Kein Produktionssystem sollte ohne SSL Dienste im Internet bereitstellen. Um das Istio-Ingress-Gateway mit Cert-Manager, CloudDNS und Let's Encrypt zu sichern, lesen Sie bitte Dokumentation Flagger G.K.E.

Flagger-Installation

Das GKE Istio-Add-on enthält keine Prometheus-Instanz, die den Istio-Telemetriedienst bereinigt. Da Flagger Istio-HTTP-Metriken verwendet, um Canary-Analysen durchzuführen, müssen Sie die folgende Prometheus-Konfiguration bereitstellen, ähnlich der, die mit dem offiziellen Istio-Helm-Schema geliefert wird.

REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/gke/istio-prometheus.yaml

Fügen Sie das Flagger-Helm-Repository hinzu:

helm repo add flagger [https://flagger.app](https://flagger.app/)

Erweitern Sie Flagger zum Namespace istio-systemdurch Aktivieren von Slack-Benachrichtigungen:

helm upgrade -i flagger flagger/flagger 
--namespace=istio-system 
--set metricsServer=http://prometheus.istio-system:9090 
--set slack.url=https://hooks.slack.com/services/YOUR-WEBHOOK-ID 
--set slack.channel=general 
--set slack.user=flagger

Sie können Flagger in jedem Namespace installieren, solange er mit dem Istio Prometheus-Dienst auf Port 9090 kommunizieren kann.

Flagger verfügt über ein Grafana-Dashboard für Canary-Analysen. Installieren Sie Grafana im Namespace istio-system:

helm upgrade -i flagger-grafana flagger/grafana 
--namespace=istio-system 
--set url=http://prometheus.istio-system:9090 
--set user=admin 
--set password=change-me

Machen Sie Grafana über ein offenes Gateway verfügbar, indem Sie einen virtuellen Dienst erstellen (ersetzen). example.com zu Ihrer Domain):

apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
  name: grafana
  namespace: istio-system
spec:
  hosts:
    - "grafana.istio.example.com"
  gateways:
    - public-gateway.istio-system.svc.cluster.local
  http:
    - route:
        - destination:
            host: flagger-grafana

Speichern Sie die obige Ressource als grafana-virtual-service.yaml und wenden Sie sie dann an:

kubectl apply -f ./grafana-virtual-service.yaml

Beim Umzug nach http://grafana.istio.example.com Im Browser sollten Sie zur Grafana-Anmeldeseite weitergeleitet werden.

Bereitstellen von Webanwendungen mit Flagger

Flagger stellt Kubernetes bereit und skaliert optional automatisch (HPA) und erstellt dann eine Reihe von Objekten (Kubernetes-Bereitstellungen, ClusterIP-Dienste und virtuelle Istio-Dienste). Diese Objekte machen die Anwendung dem Service Mesh zugänglich und steuern die Canary-Analyse und den Fortschritt.

Automatische Canary-Bereitstellungen mit Flagger und Istio

Erstellen Sie einen Test-Namespace mit aktivierter Istio Sidecar-Injection:

REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/namespaces/test.yaml

Erstellen Sie eine Bereitstellung und ein Pod-Tool für die automatische Skalierung:

kubectl apply -f ${REPO}/artifacts/canaries/deployment.yaml
kubectl apply -f ${REPO}/artifacts/canaries/hpa.yaml

Stellen Sie einen Testladedienst bereit, um während der Canary-Analyse Datenverkehr zu generieren:

helm upgrade -i flagger-loadtester flagger/loadtester 
--namepace=test

Erstellen Sie eine benutzerdefinierte Canary-Ressource (ersetzen Sie example.com zu Ihrer Domain):

apiVersion: flagger.app/v1alpha3
kind: Canary
metadata:
  name: podinfo
  namespace: test
spec:
  targetRef:
    apiVersion: apps/v1
    kind: Deployment
    name: podinfo
  progressDeadlineSeconds: 60
  autoscalerRef:
    apiVersion: autoscaling/v2beta1
    kind: HorizontalPodAutoscaler
    name: podinfo
  service:
    port: 9898
    gateways:
    - public-gateway.istio-system.svc.cluster.local
    hosts:
    - app.istio.example.com
  canaryAnalysis:
    interval: 30s
    threshold: 10
    maxWeight: 50
    stepWeight: 5
    metrics:
    - name: istio_requests_total
      threshold: 99
      interval: 30s
    - name: istio_request_duration_seconds_bucket
      threshold: 500
      interval: 30s
    webhooks:
      - name: load-test
        url: http://flagger-loadtester.test/
        timeout: 5s
        metadata:
          cmd: "hey -z 1m -q 10 -c 2 http://podinfo.test:9898/"

Speichern Sie die obige Ressource als podinfo-canary.yaml und wenden Sie sie dann an:

kubectl apply -f ./podinfo-canary.yaml

Wenn die obige Analyse erfolgreich ist, wird sie fünf Minuten lang ausgeführt, wobei jede halbe Minute HTTP-Metriken überprüft werden. Mit der folgenden Formel können Sie die erforderliche Mindestzeit für die Validierung und Förderung einer Canary-Bereitstellung ermitteln: interval * (maxWeight / stepWeight). Kanarische CRD-Felder sind dokumentiert hier.

Nach ein paar Sekunden erstellt Flagger kanarische Objekte:

# applied 
deployment.apps/podinfo
horizontalpodautoscaler.autoscaling/podinfo
canary.flagger.app/podinfo
# generated 
deployment.apps/podinfo-primary
horizontalpodautoscaler.autoscaling/podinfo-primary
service/podinfo
service/podinfo-canary
service/podinfo-primary
virtualservice.networking.istio.io/podinfo

Öffnen Sie einen Browser und gehen Sie zu app.istio.example.com, sollten Sie die Versionsnummer sehen Demo-Apps.

Automatische Kanarienvogelanalyse und -förderung

Flagger implementiert einen Regelkreis, der den Datenverkehr schrittweise zum Canary verlagert und gleichzeitig wichtige Leistungsmetriken wie die Erfolgsrate von HTTP-Anfragen, die durchschnittliche Anfragedauer und den Pod-Zustand misst. Basierend auf der KPI-Analyse wird der Canary befördert oder unterbrochen und die Ergebnisse der Analyse werden in Slack veröffentlicht.

Automatische Canary-Bereitstellungen mit Flagger und Istio

Die Canary-Bereitstellung wird ausgelöst, wenn sich eines der folgenden Objekte ändert:

  • PodSpec bereitstellen (Container-Image, Befehl, Ports, Umgebung usw.)
  • ConfigMaps werden als Volumes bereitgestellt oder Umgebungsvariablen zugeordnet
  • Geheimnisse werden als Volumes bereitgestellt oder in Umgebungsvariablen konvertiert

Führen Sie Canary Deploy aus, wenn Sie ein Container-Image aktualisieren:

kubectl -n test set image deployment/podinfo 
podinfod=quay.io/stefanprodan/podinfo:1.4.1

Flagger erkennt, dass sich die Bereitstellungsversion geändert hat und beginnt mit der Analyse:

kubectl -n test describe canary/podinfo

Events:

New revision detected podinfo.test
Scaling up podinfo.test
Waiting for podinfo.test rollout to finish: 0 of 1 updated replicas are available
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Advance podinfo.test canary weight 20
Advance podinfo.test canary weight 25
Advance podinfo.test canary weight 30
Advance podinfo.test canary weight 35
Advance podinfo.test canary weight 40
Advance podinfo.test canary weight 45
Advance podinfo.test canary weight 50
Copying podinfo.test template spec to podinfo-primary.test
Waiting for podinfo-primary.test rollout to finish: 1 of 2 updated replicas are available
Promotion completed! Scaling down podinfo.test

Während der Analyse können Canary-Ergebnisse mit Grafana verfolgt werden:

Automatische Canary-Bereitstellungen mit Flagger und Istio

Bitte beachten Sie, dass Flagger die Analysephase neu startet, wenn während der Canary-Analyse neue Änderungen an einer Bereitstellung vorgenommen werden.

Erstellen Sie eine Liste aller Kanarienvögel in Ihrem Cluster:

watch kubectl get canaries --all-namespaces
NAMESPACE   NAME      STATUS        WEIGHT   LASTTRANSITIONTIME
test        podinfo   Progressing   15       2019-01-16T14:05:07Z
prod        frontend  Succeeded     0        2019-01-15T16:15:07Z
prod        backend   Failed        0        2019-01-14T17:05:07Z

Wenn Sie Slack-Benachrichtigungen aktiviert haben, erhalten Sie die folgenden Nachrichten:

Automatische Canary-Bereitstellungen mit Flagger und Istio

Automatisches Rollback

Während der Canary-Analyse können Sie synthetische HTTP 500-Fehler und eine hohe Antwortlatenz generieren, um zu sehen, ob Flagger die Bereitstellung stoppt.

Erstellen Sie einen Test-Pod und führen Sie darin Folgendes aus:

kubectl -n test run tester 
--image=quay.io/stefanprodan/podinfo:1.2.1 
-- ./podinfo --port=9898
kubectl -n test exec -it tester-xx-xx sh

Generieren von HTTP 500-Fehlern:

watch curl http://podinfo-canary:9898/status/500

Verzögerungserzeugung:

watch curl http://podinfo-canary:9898/delay/1

Wenn die Anzahl der fehlgeschlagenen Prüfungen den Schwellenwert erreicht, wird der Datenverkehr zurück zum primären Kanal geleitet, der Canary wird auf Null skaliert und die Bereitstellung wird als fehlgeschlagen markiert.

Canary-Fehler und Latenzspitzen werden als Kubernetes-Ereignisse protokolliert und von Flagger im JSON-Format protokolliert:

kubectl -n istio-system logs deployment/flagger -f | jq .msg

Starting canary deployment for podinfo.test
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Halt podinfo.test advancement success rate 69.17% < 99%
Halt podinfo.test advancement success rate 61.39% < 99%
Halt podinfo.test advancement success rate 55.06% < 99%
Halt podinfo.test advancement success rate 47.00% < 99%
Halt podinfo.test advancement success rate 37.00% < 99%
Halt podinfo.test advancement request duration 1.515s > 500ms
Halt podinfo.test advancement request duration 1.600s > 500ms
Halt podinfo.test advancement request duration 1.915s > 500ms
Halt podinfo.test advancement request duration 2.050s > 500ms
Halt podinfo.test advancement request duration 2.515s > 500ms
Rolling back podinfo.test failed checks threshold reached 10
Canary failed! Scaling down podinfo.test

Wenn Sie Slack-Benachrichtigungen aktiviert haben, erhalten Sie eine Nachricht, wenn die Frist überschritten oder die maximale Anzahl fehlgeschlagener Prüfungen in der Analyse erreicht ist:

Automatische Canary-Bereitstellungen mit Flagger und Istio

Abschließend

Durch die Ausführung eines Service Mesh wie Istio zusätzlich zu Kubernetes werden automatische Metriken, Protokolle und Protokolle bereitgestellt, die Workload-Bereitstellung hängt jedoch immer noch von externen Tools ab. Flagger möchte dies ändern, indem es Istio-Funktionen hinzufügt progressives Angebot.

Flagger ist mit jeder Kubernetes CI/CD-Lösung kompatibel und die Canary-Analyse kann problemlos erweitert werden Webhooks um Systemintegrations-/Abnahmetests, Auslastungstests oder andere benutzerdefinierte Prüfungen durchzuführen. Da Flagger deklarativ ist und auf Kubernetes-Ereignisse reagiert, kann es zusammen mit in GitOps-Pipelines verwendet werden Flussmittel weben oder JenkinsX. Wenn Sie JenkinsX verwenden, können Sie Flagger mit JX-Add-Ons installieren.

Flagger unterstützt Webereien und bietet Canary-Bereitstellungen in Webwolke. Das Projekt wird auf GKE, EKS und Bare Metal mit kubeadm getestet.

Wenn Sie Vorschläge zur Verbesserung von Flagger haben, senden Sie bitte ein Problem oder eine PR auf GitHub unter stefanprodan/flagger. Beiträge sind herzlich willkommen!

Danke Ray Tsang.

Source: habr.com

Kommentar hinzufügen