Automatiska kanariefågelinstallationer med Flagger och Istio

Automatiska kanariefågelinstallationer med Flagger och Istio

CD är erkänt som ett företagsprogramvara och är resultatet av en naturlig utveckling av etablerade CI-principer. Men CD är fortfarande ganska sällsynt, kanske på grund av komplexiteten i hanteringen och rädslan för misslyckade distributioner som påverkar systemets tillgänglighet.

flaggare är en Kubernetes-operatör med öppen källkod som syftar till att eliminera förvirrande relationer. Den automatiserar marknadsföringen av kanariefågel-distributioner med hjälp av Istio-trafikförskjutning och Prometheus-statistik för att analysera applikationsbeteende under en hanterad utrullning.

Nedan finns en steg-för-steg-guide för att ställa in och använda Flagger på Google Kubernetes Engine (GKE).

Konfigurera ett Kubernetes-kluster

Du börjar med att skapa ett GKE-kluster med Istio-tillägget (om du inte har ett GCP-konto kan du registrera dig här - för att få gratis krediter).

Logga in på Google Cloud, skapa ett projekt och aktivera fakturering för det. Installera kommandoradsverktyget gmoln och ställ in ditt projekt med gcloud init.

Ställ in standardprojekt, beräkna område och zon (ersätt PROJECT_ID för ditt projekt):

gcloud config set project PROJECT_ID
gcloud config set compute/region us-central1
gcloud config set compute/zone us-central1-a

Aktivera GKE-tjänsten och skapa ett kluster med HPA- och Istio-tillägg:

gcloud services enable container.googleapis.com
K8S_VERSION=$(gcloud beta container get-server-config --format=json | jq -r '.validMasterVersions[0]')
gcloud beta container clusters create istio 
--cluster-version=${K8S_VERSION} 
--zone=us-central1-a 
--num-nodes=2 
--machine-type=n1-standard-2 
--disk-size=30 
--enable-autorepair 
--no-enable-cloud-logging 
--no-enable-cloud-monitoring 
--addons=HorizontalPodAutoscaling,Istio 
--istio-config=auth=MTLS_PERMISSIVE

Kommandot ovan kommer att skapa en standardnodpool inklusive två virtuella datorer n1-standard-2 (vCPU: 2, RAM 7,5 GB, disk: 30 GB). Helst bör du isolera Istio-komponenter från dina arbetsbelastningar, men det finns inget enkelt sätt att köra Istio Pods i en dedikerad pool av noder. Istio-manifest anses vara skrivskyddade och GKE kommer att ångra alla ändringar, som att länka till en nod eller koppla från en pod.

Ställ in autentiseringsuppgifter för kubectl:

gcloud container clusters get-credentials istio

Skapa en klusteradministratörsrollbindning:

kubectl create clusterrolebinding "cluster-admin-$(whoami)" 
--clusterrole=cluster-admin 
--user="$(gcloud config get-value core/account)"

Installera kommandoradsverktyget Helm:

brew install kubernetes-helm

Homebrew 2.0 finns nu även tillgängligt för Linux.

Skapa ett tjänstekonto och klusterrollbindning för Tiller:

kubectl -n kube-system create sa tiller && 
kubectl create clusterrolebinding tiller-cluster-rule 
--clusterrole=cluster-admin 
--serviceaccount=kube-system:tiller

Expandera Tiller i namnrymden kube-system:

helm init --service-account tiller

Du bör överväga att använda SSL mellan Helm och Tiller. För mer information om att skydda din Helm-installation, se docs.helm.sh

Bekräfta inställningarna:

kubectl -n istio-system get svc

Efter några sekunder bör GCP tilldela en extern IP-adress för tjänsten istio-ingressgateway.

Konfigurera Istio Ingress Gateway

Skapa en statisk IP-adress med ett namn istio-gatewaymed IP-adressen för Istio-gatewayen:

export GATEWAY_IP=$(kubectl -n istio-system get svc/istio-ingressgateway -ojson | jq -r .status.loadBalancer.ingress[0].ip)
gcloud compute addresses create istio-gateway --addresses ${GATEWAY_IP} --region us-central1

Nu behöver du en internetdomän och tillgång till din DNS-registrator. Lägg till två A-poster (ersätt example.com till din domän):

istio.example.com   A ${GATEWAY_IP}
*.istio.example.com A ${GATEWAY_IP}

Kontrollera att DNS-jokertecknet fungerar:

watch host test.istio.example.com

Skapa en generisk Istio-gateway för att tillhandahålla tjänster utanför tjänstens mesh över HTTP:

apiVersion: networking.istio.io/v1alpha3
kind: Gateway
metadata:
  name: public-gateway
  namespace: istio-system
spec:
  selector:
    istio: ingressgateway
  servers:
    - port:
        number: 80
        name: http
        protocol: HTTP
      hosts:
        - "*"

Spara resursen ovan som public-gateway.yaml och använd den sedan:

kubectl apply -f ./public-gateway.yaml

Inget produktionssystem ska tillhandahålla tjänster på Internet utan SSL. För att säkra Istio ingress gateway med cert-manager, CloudDNS och Let's Encrypt, vänligen läs dokumentation Flagger G.K.E.

Flagger installation

GKE Istio-tillägget inkluderar inte en Prometheus-instans som rensar upp Istio-telemetritjänsten. Eftersom Flagger använder Istio HTTP-mått för att utföra kanariefågelanalys, måste du distribuera följande Prometheus-konfiguration, liknande den som följer med det officiella Istio Helm-schemat.

REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/gke/istio-prometheus.yaml

Lägg till Flagger Helm-förrådet:

helm repo add flagger [https://flagger.app](https://flagger.app/)

Expandera Flagger till namnutrymme istio-systemgenom att aktivera Slack-aviseringar:

helm upgrade -i flagger flagger/flagger 
--namespace=istio-system 
--set metricsServer=http://prometheus.istio-system:9090 
--set slack.url=https://hooks.slack.com/services/YOUR-WEBHOOK-ID 
--set slack.channel=general 
--set slack.user=flagger

Du kan installera Flagger i vilket namnområde som helst så länge det kan kommunicera med Istio Prometheus-tjänsten på port 9090.

Flagger har en Grafana-instrumentbräda för kanariefågelanalys. Installera Grafana i namnutrymmet istio-system:

helm upgrade -i flagger-grafana flagger/grafana 
--namespace=istio-system 
--set url=http://prometheus.istio-system:9090 
--set user=admin 
--set password=change-me

Exponera Grafana genom en öppen gateway genom att skapa en virtuell tjänst (ersätt example.com till din domän):

apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
  name: grafana
  namespace: istio-system
spec:
  hosts:
    - "grafana.istio.example.com"
  gateways:
    - public-gateway.istio-system.svc.cluster.local
  http:
    - route:
        - destination:
            host: flagger-grafana

Spara resursen ovan som grafana-virtual-service.yaml och använd den sedan:

kubectl apply -f ./grafana-virtual-service.yaml

När man flyttar till http://grafana.istio.example.com i webbläsaren bör du dirigeras till Grafanas inloggningssida.

Distribuera webbapplikationer med Flagger

Flagger distribuerar Kubernetes och skalar ut automatiskt (HPA) och skapar sedan en serie objekt (Kubernetes-distributioner, ClusterIP-tjänster och virtuella Istio-tjänster). Dessa objekt exponerar applikationen för servicenätet och styr kanariefågelanalys och framsteg.

Automatiska kanariefågelinstallationer med Flagger och Istio

Skapa ett testnamnområde med Istio Sidecar-injektion aktiverad:

REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/namespaces/test.yaml

Skapa en distribution och ett automatiskt utskalningsverktyg:

kubectl apply -f ${REPO}/artifacts/canaries/deployment.yaml
kubectl apply -f ${REPO}/artifacts/canaries/hpa.yaml

Implementera en testladdningstjänst för att generera trafik under kanariefågelanalys:

helm upgrade -i flagger-loadtester flagger/loadtester 
--namepace=test

Skapa en anpassad kanariefågelresurs (ersätt example.com till din domän):

apiVersion: flagger.app/v1alpha3
kind: Canary
metadata:
  name: podinfo
  namespace: test
spec:
  targetRef:
    apiVersion: apps/v1
    kind: Deployment
    name: podinfo
  progressDeadlineSeconds: 60
  autoscalerRef:
    apiVersion: autoscaling/v2beta1
    kind: HorizontalPodAutoscaler
    name: podinfo
  service:
    port: 9898
    gateways:
    - public-gateway.istio-system.svc.cluster.local
    hosts:
    - app.istio.example.com
  canaryAnalysis:
    interval: 30s
    threshold: 10
    maxWeight: 50
    stepWeight: 5
    metrics:
    - name: istio_requests_total
      threshold: 99
      interval: 30s
    - name: istio_request_duration_seconds_bucket
      threshold: 500
      interval: 30s
    webhooks:
      - name: load-test
        url: http://flagger-loadtester.test/
        timeout: 5s
        metadata:
          cmd: "hey -z 1m -q 10 -c 2 http://podinfo.test:9898/"

Spara resursen ovan som podinfo-canary.yaml och använd den sedan:

kubectl apply -f ./podinfo-canary.yaml

Ovanstående analys, om den lyckas, körs i fem minuter och kontrollerar HTTP-statistiken var halv minut. Du kan bestämma den minsta tid som krävs för att validera och främja en kanariefågelutplacering med hjälp av följande formel: interval * (maxWeight / stepWeight). Canary CRD-fält är dokumenterade här.

Efter ett par sekunder kommer Flagger att skapa kanariefågelobjekt:

# applied 
deployment.apps/podinfo
horizontalpodautoscaler.autoscaling/podinfo
canary.flagger.app/podinfo
# generated 
deployment.apps/podinfo-primary
horizontalpodautoscaler.autoscaling/podinfo-primary
service/podinfo
service/podinfo-canary
service/podinfo-primary
virtualservice.networking.istio.io/podinfo

Öppna en webbläsare och gå till app.istio.example.com, bör du se versionsnumret demoappar.

Automatisk kanariefågelanalys och marknadsföring

Flagger implementerar en kontrollslinga som gradvis flyttar trafik till kanariefågeln samtidigt som den mäter nyckelprestandamått såsom framgångsfrekvens för HTTP-förfrågningar, genomsnittlig förfrågningslängd och pods hälsa. Baserat på KPI-analysen främjas eller avbryts kanariefågeln, och resultaten av analysen publiceras till Slack.

Automatiska kanariefågelinstallationer med Flagger och Istio

Canary-distribution utlöses när något av följande objekt ändras:

  • Distribuera PodSpec (behållarbild, kommando, portar, env, etc.)
  • ConfigMaps monteras som volymer eller mappas till miljövariabler
  • Hemligheter monteras som volymer eller konverteras till miljövariabler

Kör Canary Deploy när du uppdaterar en containerbild:

kubectl -n test set image deployment/podinfo 
podinfod=quay.io/stefanprodan/podinfo:1.4.1

Flagger upptäcker att distributionsversionen har ändrats och börjar analysera den:

kubectl -n test describe canary/podinfo

Events:

New revision detected podinfo.test
Scaling up podinfo.test
Waiting for podinfo.test rollout to finish: 0 of 1 updated replicas are available
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Advance podinfo.test canary weight 20
Advance podinfo.test canary weight 25
Advance podinfo.test canary weight 30
Advance podinfo.test canary weight 35
Advance podinfo.test canary weight 40
Advance podinfo.test canary weight 45
Advance podinfo.test canary weight 50
Copying podinfo.test template spec to podinfo-primary.test
Waiting for podinfo-primary.test rollout to finish: 1 of 2 updated replicas are available
Promotion completed! Scaling down podinfo.test

Under analys kan kanariefågelresultat spåras med Grafana:

Automatiska kanariefågelinstallationer med Flagger och Istio

Observera att om nya ändringar tillämpas på en utplacering under kanariefågelanalys, kommer Flagger att starta om analysfasen.

Gör en lista över alla kanariefåglar i ditt kluster:

watch kubectl get canaries --all-namespaces
NAMESPACE   NAME      STATUS        WEIGHT   LASTTRANSITIONTIME
test        podinfo   Progressing   15       2019-01-16T14:05:07Z
prod        frontend  Succeeded     0        2019-01-15T16:15:07Z
prod        backend   Failed        0        2019-01-14T17:05:07Z

Om du har aktiverat Slack-aviseringar får du följande meddelanden:

Automatiska kanariefågelinstallationer med Flagger och Istio

Automatisk återställning

Under kanariefågelanalys kan du generera syntetiska HTTP 500-fel och hög svarslatens för att se om Flagger kommer att stoppa distributionen.

Skapa en testpod och gör följande i den:

kubectl -n test run tester 
--image=quay.io/stefanprodan/podinfo:1.2.1 
-- ./podinfo --port=9898
kubectl -n test exec -it tester-xx-xx sh

Genererar HTTP 500-fel:

watch curl http://podinfo-canary:9898/status/500

Fördröjningsgenerering:

watch curl http://podinfo-canary:9898/delay/1

När antalet misslyckade kontroller når tröskeln dirigeras trafiken tillbaka till den primära kanalen, kanariefågeln skalas till noll och distributionen markeras som misslyckad.

Kanariefel och fördröjningstoppar loggas som Kubernetes-händelser och loggas av Flagger i JSON-format:

kubectl -n istio-system logs deployment/flagger -f | jq .msg

Starting canary deployment for podinfo.test
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Halt podinfo.test advancement success rate 69.17% < 99%
Halt podinfo.test advancement success rate 61.39% < 99%
Halt podinfo.test advancement success rate 55.06% < 99%
Halt podinfo.test advancement success rate 47.00% < 99%
Halt podinfo.test advancement success rate 37.00% < 99%
Halt podinfo.test advancement request duration 1.515s > 500ms
Halt podinfo.test advancement request duration 1.600s > 500ms
Halt podinfo.test advancement request duration 1.915s > 500ms
Halt podinfo.test advancement request duration 2.050s > 500ms
Halt podinfo.test advancement request duration 2.515s > 500ms
Rolling back podinfo.test failed checks threshold reached 10
Canary failed! Scaling down podinfo.test

Om du har aktiverat Slack-aviseringar får du ett meddelande när deadline har överskridits eller det maximala antalet misslyckade kontroller i analysen har uppnåtts:

Automatiska kanariefågelinstallationer med Flagger och Istio

Sammanfattningsvis

Att köra ett servicenät som Istio utöver Kubernetes kommer att tillhandahålla automatiska mätvärden, loggar och protokoll, men distributionen av arbetsbelastning beror fortfarande på externa verktyg. Flagger siktar på att ändra detta genom att lägga till Istio-funktioner progressiv leverans.

Flagger är kompatibel med alla Kubernetes CI/CD-lösningar, och kanariefågelanalys kan enkelt utökas med webhooks för att utföra systemintegration/acceptanstester, belastningstester eller andra anpassade kontroller. Eftersom Flagger är deklarativ och svarar på Kubernetes-händelser kan den användas i GitOps pipelines tillsammans med Väv Flux eller JenkinsX. Om du använder JenkinsX kan du installera Flagger med jx-tillägg.

Flagger stöds Vävverk och tillhandahåller kanariefågel i Vävmoln. Projektet testas på GKE, EKS och ren metall med kubeadm.

Om du har förslag för att förbättra Flagger, skicka in ett ärende eller PR på GitHub på stefanprodan/flagger. Bidrag är mer än välkomna!

Tack Ray Tsang.

Källa: will.com

Lägg en kommentar