Automatické nasazení kanárků pomocí Flagger a Istio

Automatické nasazení kanárků pomocí Flagger a Istio

CD je uznáváno jako podnikový software a je výsledkem přirozeného vývoje zavedených principů CI. CD je však stále poměrně vzácné, možná kvůli složitosti správy a obavám z neúspěšných nasazení ovlivňujících dostupnost systému.

Nahlašovatel je open source operátor Kubernetes, jehož cílem je eliminovat matoucí vztahy. Automatizuje propagaci nasazení canary pomocí Istio traffic offset a Prometheus metrik k analýze chování aplikací během řízeného zavádění.

Níže je krok za krokem průvodce nastavením a používáním Flagger na Google Kubernetes Engine (GKE).

Nastavení clusteru Kubernetes

Začnete vytvořením clusteru GKE pomocí doplňku Istio (pokud nemáte účet GCP, můžete se zaregistrovat zde - získat kredity zdarma).

Přihlaste se do Google Cloud, vytvořte projekt a povolte jeho fakturaci. Nainstalujte obslužný program příkazového řádku gcloud a nastavte svůj projekt pomocí gcloud init.

Nastavit výchozí projekt, výpočetní oblast a zónu (nahradit PROJECT_ID pro váš projekt):

gcloud config set project PROJECT_ID
gcloud config set compute/region us-central1
gcloud config set compute/zone us-central1-a

Povolte službu GKE a vytvořte cluster s doplňky HPA a Istio:

gcloud services enable container.googleapis.com
K8S_VERSION=$(gcloud beta container get-server-config --format=json | jq -r '.validMasterVersions[0]')
gcloud beta container clusters create istio 
--cluster-version=${K8S_VERSION} 
--zone=us-central1-a 
--num-nodes=2 
--machine-type=n1-standard-2 
--disk-size=30 
--enable-autorepair 
--no-enable-cloud-logging 
--no-enable-cloud-monitoring 
--addons=HorizontalPodAutoscaling,Istio 
--istio-config=auth=MTLS_PERMISSIVE

Výše uvedený příkaz vytvoří výchozí fond uzlů obsahující dva virtuální počítače n1-standard-2 (vCPU: 2, RAM 7,5 GB, disk: 30 GB). V ideálním případě byste měli izolovat komponenty Istio od svých pracovních zátěží, ale neexistuje snadný způsob, jak spustit Istio Pods ve vyhrazeném fondu uzlů. Manifesty Istio jsou považovány za pouze pro čtení a GKE vrátí zpět jakékoli změny, jako je propojení s uzlem nebo odpojení od modulu.

Nastavte přihlašovací údaje pro kubectl:

gcloud container clusters get-credentials istio

Vytvořte vazbu role správce clusteru:

kubectl create clusterrolebinding "cluster-admin-$(whoami)" 
--clusterrole=cluster-admin 
--user="$(gcloud config get-value core/account)"

Nainstalujte nástroj příkazového řádku Kormidlo:

brew install kubernetes-helm

Homebrew 2.0 je nyní k dispozici také pro Linux.

Vytvořte servisní účet a vazbu role clusteru pro Tiller:

kubectl -n kube-system create sa tiller && 
kubectl create clusterrolebinding tiller-cluster-rule 
--clusterrole=cluster-admin 
--serviceaccount=kube-system:tiller

Rozbalte Tiller ve jmenném prostoru kube-system:

helm init --service-account tiller

Měli byste zvážit použití SSL mezi Helm a Tiller. Další informace o ochraně vaší instalace Helm viz docs.helm.sh

Potvrďte nastavení:

kubectl -n istio-system get svc

Po několika sekundách by měl GCP službě přiřadit externí IP adresu istio-ingressgateway.

Konfigurace brány Istio Ingress Gateway

Vytvořte statickou IP adresu s názvem istio-gatewaypomocí IP adresy brány Istio:

export GATEWAY_IP=$(kubectl -n istio-system get svc/istio-ingressgateway -ojson | jq -r .status.loadBalancer.ingress[0].ip)
gcloud compute addresses create istio-gateway --addresses ${GATEWAY_IP} --region us-central1

Nyní potřebujete internetovou doménu a přístup k vašemu DNS registrátorovi. Přidejte dva záznamy A (nahraďte example.com na vaši doménu):

istio.example.com   A ${GATEWAY_IP}
*.istio.example.com A ${GATEWAY_IP}

Ověřte, že zástupný znak DNS funguje:

watch host test.istio.example.com

Vytvořte obecnou bránu Istio pro poskytování služeb mimo síť služeb přes HTTP:

apiVersion: networking.istio.io/v1alpha3
kind: Gateway
metadata:
  name: public-gateway
  namespace: istio-system
spec:
  selector:
    istio: ingressgateway
  servers:
    - port:
        number: 80
        name: http
        protocol: HTTP
      hosts:
        - "*"

Uložte výše uvedený zdroj jako public-gateway.yaml a poté jej použijte:

kubectl apply -f ./public-gateway.yaml

Žádný produkční systém by neměl poskytovat služby na internetu bez SSL. Chcete-li zabezpečit vstupní bránu Istio pomocí správce certifikátů, CloudDNS a Let's Encrypt, přečtěte si dokumentace Flagger G.K.E.

Instalace příznaku

Doplněk GKE Istio nezahrnuje instanci Prometheus, která čistí telemetrickou službu Istio. Protože Flagger používá k provádění analýzy kanárků metriky Istio HTTP, musíte nasadit následující konfiguraci Prometheus, podobnou té, která je dodávána s oficiálním schématem Istio Helm.

REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/gke/istio-prometheus.yaml

Přidejte úložiště Flagger Helm:

helm repo add flagger [https://flagger.app](https://flagger.app/)

Rozbalte Flagger na jmenný prostor istio-systempovolením upozornění Slack:

helm upgrade -i flagger flagger/flagger 
--namespace=istio-system 
--set metricsServer=http://prometheus.istio-system:9090 
--set slack.url=https://hooks.slack.com/services/YOUR-WEBHOOK-ID 
--set slack.channel=general 
--set slack.user=flagger

Flagger můžete nainstalovat do libovolného jmenného prostoru, pokud může komunikovat se službou Istio Prometheus na portu 9090.

Flagger má ovládací panel Grafana pro analýzu kanárů. Nainstalujte Grafana do jmenného prostoru istio-system:

helm upgrade -i flagger-grafana flagger/grafana 
--namespace=istio-system 
--set url=http://prometheus.istio-system:9090 
--set user=admin 
--set password=change-me

Zveřejněte Grafana prostřednictvím otevřené brány vytvořením virtuální služby (nahradit example.com na vaši doménu):

apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
  name: grafana
  namespace: istio-system
spec:
  hosts:
    - "grafana.istio.example.com"
  gateways:
    - public-gateway.istio-system.svc.cluster.local
  http:
    - route:
        - destination:
            host: flagger-grafana

Uložte výše uvedený zdroj jako grafana-virtual-service.yaml a poté jej použijte:

kubectl apply -f ./grafana-virtual-service.yaml

Při stěhování do http://grafana.istio.example.com v prohlížeči byste měli být přesměrováni na přihlašovací stránku Grafana.

Nasazování webových aplikací pomocí Flaggeru

Flagger nasadí Kubernetes a volitelně automaticky škáluje (HPA), poté vytvoří řadu objektů (nasazení Kubernetes, služby ClusterIP a virtuální služby Istio). Tyto objekty vystavují aplikaci servisní síti a řídí analýzu a průběh kanárků.

Automatické nasazení kanárků pomocí Flagger a Istio

Vytvořte testovací jmenný prostor s povoleným vstřikováním Istio Sidecar:

REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/namespaces/test.yaml

Vytvořte nástroj pro nasazení a automatické škálování modulu:

kubectl apply -f ${REPO}/artifacts/canaries/deployment.yaml
kubectl apply -f ${REPO}/artifacts/canaries/hpa.yaml

Nasaďte službu testovacího zatížení pro generování provozu během analýzy canary:

helm upgrade -i flagger-loadtester flagger/loadtester 
--namepace=test

Vytvořte vlastní kanárský zdroj (nahraďte example.com na vaši doménu):

apiVersion: flagger.app/v1alpha3
kind: Canary
metadata:
  name: podinfo
  namespace: test
spec:
  targetRef:
    apiVersion: apps/v1
    kind: Deployment
    name: podinfo
  progressDeadlineSeconds: 60
  autoscalerRef:
    apiVersion: autoscaling/v2beta1
    kind: HorizontalPodAutoscaler
    name: podinfo
  service:
    port: 9898
    gateways:
    - public-gateway.istio-system.svc.cluster.local
    hosts:
    - app.istio.example.com
  canaryAnalysis:
    interval: 30s
    threshold: 10
    maxWeight: 50
    stepWeight: 5
    metrics:
    - name: istio_requests_total
      threshold: 99
      interval: 30s
    - name: istio_request_duration_seconds_bucket
      threshold: 500
      interval: 30s
    webhooks:
      - name: load-test
        url: http://flagger-loadtester.test/
        timeout: 5s
        metadata:
          cmd: "hey -z 1m -q 10 -c 2 http://podinfo.test:9898/"

Uložte výše uvedený zdroj jako podinfo-canary.yaml a poté jej použijte:

kubectl apply -f ./podinfo-canary.yaml

Pokud bude výše uvedená analýza úspěšná, poběží pět minut a každou půlminutu kontroluje metriky HTTP. Minimální čas potřebný k ověření a podpoře nasazení canary můžete určit pomocí následujícího vzorce: interval * (maxWeight / stepWeight). Pole Canary CRD jsou zdokumentovány zde.

Po několika sekundách Flagger vytvoří kanárské objekty:

# applied 
deployment.apps/podinfo
horizontalpodautoscaler.autoscaling/podinfo
canary.flagger.app/podinfo
# generated 
deployment.apps/podinfo-primary
horizontalpodautoscaler.autoscaling/podinfo-primary
service/podinfo
service/podinfo-canary
service/podinfo-primary
virtualservice.networking.istio.io/podinfo

Otevřete prohlížeč a přejděte na app.istio.example.com, měli byste vidět číslo verze ukázkové aplikace.

Automatická analýza a propagace kanárků

Flagger implementuje řídicí smyčku, která postupně přesouvá provoz na kanár a zároveň měří klíčové metriky výkonu, jako je úspěšnost požadavků HTTP, průměrná doba trvání požadavku a stav podu. Na základě analýzy KPI je kanárek povýšen nebo přerušen a výsledky analýzy jsou publikovány Slacku.

Automatické nasazení kanárků pomocí Flagger a Istio

Nasazení Canary se spustí, když se změní jeden z následujících objektů:

  • Nasadit PodSpec (obraz kontejneru, příkaz, porty, env atd.)
  • ConfigMaps jsou připojeny jako svazky nebo mapovány na proměnné prostředí
  • Tajné položky jsou připojeny jako svazky nebo převedeny na proměnné prostředí

Spusťte nasazení canary při aktualizaci obrázku kontejneru:

kubectl -n test set image deployment/podinfo 
podinfod=quay.io/stefanprodan/podinfo:1.4.1

Flagger zjistí, že se verze nasazení změnila, a začne ji analyzovat:

kubectl -n test describe canary/podinfo

Events:

New revision detected podinfo.test
Scaling up podinfo.test
Waiting for podinfo.test rollout to finish: 0 of 1 updated replicas are available
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Advance podinfo.test canary weight 20
Advance podinfo.test canary weight 25
Advance podinfo.test canary weight 30
Advance podinfo.test canary weight 35
Advance podinfo.test canary weight 40
Advance podinfo.test canary weight 45
Advance podinfo.test canary weight 50
Copying podinfo.test template spec to podinfo-primary.test
Waiting for podinfo-primary.test rollout to finish: 1 of 2 updated replicas are available
Promotion completed! Scaling down podinfo.test

Během analýzy lze výsledky kanárků sledovat pomocí Grafany:

Automatické nasazení kanárků pomocí Flagger a Istio

Vezměte prosím na vědomí, že pokud se na nasazení během analýzy canary použijí nové změny, Flagger restartuje fázi analýzy.

Udělejte si seznam všech kanárů ve vašem clusteru:

watch kubectl get canaries --all-namespaces
NAMESPACE   NAME      STATUS        WEIGHT   LASTTRANSITIONTIME
test        podinfo   Progressing   15       2019-01-16T14:05:07Z
prod        frontend  Succeeded     0        2019-01-15T16:15:07Z
prod        backend   Failed        0        2019-01-14T17:05:07Z

Pokud jste povolili upozornění Slack, obdržíte následující zprávy:

Automatické nasazení kanárků pomocí Flagger a Istio

Automatické vrácení zpět

Během analýzy canary můžete generovat syntetické chyby HTTP 500 a vysokou latenci odezvy, abyste zjistili, zda Flagger zastaví nasazení.

Vytvořte testovací modul a proveďte v něm následující:

kubectl -n test run tester 
--image=quay.io/stefanprodan/podinfo:1.2.1 
-- ./podinfo --port=9898
kubectl -n test exec -it tester-xx-xx sh

Generování chyb HTTP 500:

watch curl http://podinfo-canary:9898/status/500

Generování zpoždění:

watch curl http://podinfo-canary:9898/delay/1

Když počet neúspěšných kontrol dosáhne prahové hodnoty, provoz je směrován zpět do primárního kanálu, kanárek je zmenšen na nulu a nasazení je označeno jako neúspěšné.

Canary chyby a špičky latence jsou protokolovány jako události Kubernetes a protokolovány Flaggerem ve formátu JSON:

kubectl -n istio-system logs deployment/flagger -f | jq .msg

Starting canary deployment for podinfo.test
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Halt podinfo.test advancement success rate 69.17% < 99%
Halt podinfo.test advancement success rate 61.39% < 99%
Halt podinfo.test advancement success rate 55.06% < 99%
Halt podinfo.test advancement success rate 47.00% < 99%
Halt podinfo.test advancement success rate 37.00% < 99%
Halt podinfo.test advancement request duration 1.515s > 500ms
Halt podinfo.test advancement request duration 1.600s > 500ms
Halt podinfo.test advancement request duration 1.915s > 500ms
Halt podinfo.test advancement request duration 2.050s > 500ms
Halt podinfo.test advancement request duration 2.515s > 500ms
Rolling back podinfo.test failed checks threshold reached 10
Canary failed! Scaling down podinfo.test

Pokud jste povolili upozornění Slack, obdržíte zprávu, když je překročen termín nebo je dosaženo maximálního počtu neúspěšných kontrol v analýze:

Automatické nasazení kanárků pomocí Flagger a Istio

Konečně,

Spuštění servisní sítě, jako je Istio, kromě Kubernetes poskytne automatické metriky, protokoly a protokoly, ale nasazení zátěže stále závisí na externích nástrojích. Flagger to chce změnit přidáním funkcí Istio progresivní nabídka.

Flagger je kompatibilní s jakýmkoli řešením Kubernetes CI/CD a analýzu canary lze snadno rozšířit webhooky k provádění testů integrace/přijetí systému, zátěžových testů nebo jakýchkoli jiných vlastních kontrol. Vzhledem k tomu, že Flagger je deklarativní a reaguje na události Kubernetes, lze jej použít v kanálech GitOps spolu s Weave Flux nebo JenkinsX. Pokud používáte JenkinsX, můžete nainstalovat Flagger s doplňky jx.

Flagger podporován Weaveworks a poskytuje nasazení kanárků v Weave Cloud. Projekt je testován na GKE, EKS a holém kovu s kubeadm.

Pokud máte návrhy na zlepšení Flaggeru, odešlete problém nebo PR na GitHubu na adrese stefanprodan/flagger. Příspěvky jsou více než vítány!

Díky Ray Tsang.

Zdroj: www.habr.com

Přidat komentář