Flagger နှင့် Istio တို့ဖြင့် အလိုအလျောက် Canary ဖြန့်ကျက်မှုများ

Flagger နှင့် Istio တို့ဖြင့် အလိုအလျောက် Canary ဖြန့်ကျက်မှုများ

CD ကို လုပ်ငန်းသုံးဆော့ဖ်ဝဲအလေ့အကျင့်တစ်ခုအဖြစ် အသိအမှတ်ပြုထားပြီး တည်ထောင်ထားသော CI စည်းမျဉ်းများ၏ သဘာဝအတိုင်း ဆင့်ကဲဖြစ်စဉ်တစ်ခုဖြစ်သည်။ သို့သော်၊ CD သည် အလွန်ရှားပါးနေသေးသည်၊ စီမံခန့်ခွဲမှုရှုပ်ထွေးမှုနှင့် စနစ်ရရှိနိုင်မှုအပေါ် သက်ရောက်မှုရှိသော မအောင်မြင်သော ဖြန့်ကျက်မှုများကို ကြောက်ရွံ့ခြင်းကြောင့် ဖြစ်ကောင်းဖြစ်နိုင်သည်။

အလံ ရှုပ်ထွေးနေသော ဆက်ဆံရေးများကို ဖယ်ရှားရန် ရည်ရွယ်သည့် ပွင့်လင်းသောအရင်းအမြစ် Kubernetes အော်ပရေတာတစ်ခုဖြစ်သည်။ ၎င်းသည် စီမံခန့်ခွဲပြီးသည့်အချိန်အတွင်း အပလီကေးရှင်းအမူအကျင့်များကို ပိုင်းခြားစိတ်ဖြာရန် Istio အသွားအလာအော့ဖ်ဆက်များနှင့် Prometheus မက်ထရစ်များကို အသုံးပြု၍ Canary ဖြန့်ကျက်မှုမြှင့်တင်ခြင်းကို အလိုအလျောက်လုပ်ဆောင်ပေးပါသည်။

အောက်တွင် Google Kubernetes Engine (GKE) တွင် Flagger ကို စတင်သတ်မှတ်ခြင်းနှင့် အသုံးပြုခြင်းအတွက် အဆင့်ဆင့်လမ်းညွှန်ချက်ဖြစ်သည်။

Kubernetes အစုအဝေးကို စနစ်ထည့်သွင်းခြင်း။

Istio အပိုပရိုဂရမ်ဖြင့် GKE အစုအဝေးတစ်ခု ဖန်တီးခြင်းဖြင့် သင်စတင်သည် (သင့်တွင် GCP အကောင့်မရှိပါက၊ သင်သည် အကောင့်ဖွင့်နိုင်သည် ဒီမှာ - အခမဲ့ခရက်ဒစ်များလက်ခံရရှိရန်။

Google Cloud သို့ လက်မှတ်ထိုးဝင်ပါ၊ ပရောဂျက်တစ်ခုကို ဖန်တီးပြီး ၎င်းအတွက် ငွေတောင်းခံခြင်းကို ဖွင့်ပါ။ command line utility ကို install လုပ်ပါ။ gcloud နှင့် သင့်ပရောဂျက်ကို configure လုပ်ပါ။ gcloud init.

မူရင်းပရောဂျက်၊ တွက်ချက်ဧရိယာနှင့် ဇုန်ကို သတ်မှတ်ပါ (အစားထိုးပါ။ PROJECT_ID သင့်ပရောဂျက်အတွက်):

gcloud config set project PROJECT_ID
gcloud config set compute/region us-central1
gcloud config set compute/zone us-central1-a

GKE ဝန်ဆောင်မှုကိုဖွင့်ပြီး HPA နှင့် Istio အပိုပရိုဂရမ်များဖြင့် အစုအဝေးတစ်ခုကို ဖန်တီးပါ-

gcloud services enable container.googleapis.com
K8S_VERSION=$(gcloud beta container get-server-config --format=json | jq -r '.validMasterVersions[0]')
gcloud beta container clusters create istio 
--cluster-version=${K8S_VERSION} 
--zone=us-central1-a 
--num-nodes=2 
--machine-type=n1-standard-2 
--disk-size=30 
--enable-autorepair 
--no-enable-cloud-logging 
--no-enable-cloud-monitoring 
--addons=HorizontalPodAutoscaling,Istio 
--istio-config=auth=MTLS_PERMISSIVE

အထက်ဖော်ပြပါ command သည် VM နှစ်ခုပါရှိသော default node pool တစ်ခုကို ဖန်တီးပါမည်။ n1-standard-2 (vCPU: 2၊ RAM 7,5 GB၊ disk: 30 GB)။ အကောင်းဆုံးအနေနှင့်၊ Istio အစိတ်အပိုင်းများကို ၎င်းတို့၏ အလုပ်တာဝန်များမှ ခွဲထုတ်သင့်သည်၊ သို့သော် သီးခြား node pool တစ်ခုပေါ်တွင် Istio pods ကို run ရန် လွယ်ကူသောနည်းလမ်းမရှိပါ။ Istio မန်နီးဖက်စ်များကို ဖတ်ရန်သပ်သပ်အဖြစ်သတ်မှတ်ထားပြီး GKE သည် node နှင့် ချိတ်ဆက်ခြင်း သို့မဟုတ် pod တစ်ခုမှ ခွဲထုတ်ခြင်းကဲ့သို့သော အပြောင်းအလဲများကို ပြန်ပြောင်းပါမည်။

အထောက်အထားများကို သတ်မှတ်ပါ။ kubectl:

gcloud container clusters get-credentials istio

အစုအဖွဲ့ စီမံခန့်ခွဲသူ အခန်းကဏ္ဍ ပေါင်းစပ်ခြင်းကို ဖန်တီးပါ-

kubectl create clusterrolebinding "cluster-admin-$(whoami)" 
--clusterrole=cluster-admin 
--user="$(gcloud config get-value core/account)"

command line tool ကို install လုပ်ပါ။ သံခမောက်:

brew install kubernetes-helm

Homebrew 2.0 ကို ယခုလည်း ရရှိနိုင်ပါသည်။ Linux ကို.

Tiller အတွက် ဝန်ဆောင်မှု အကောင့်တစ်ခု ဖန်တီးပြီး အစုလိုက် အခန်းကဏ္ဍ ပေါင်းစပ်ခြင်း-

kubectl -n kube-system create sa tiller && 
kubectl create clusterrolebinding tiller-cluster-rule 
--clusterrole=cluster-admin 
--serviceaccount=kube-system:tiller

namespace တွင် Tiller ကိုချဲ့ပါ။ kube-system:

helm init --service-account tiller

Helm နှင့် Tiller အကြား SSL ကို အသုံးပြုရန် စဉ်းစားသင့်သည်။ သင်၏ Helm တပ်ဆင်ခြင်းကို ကာကွယ်ခြင်းအကြောင်း နောက်ထပ်အချက်အလက်များအတွက်၊ ကြည့်ပါ။ docs.helm.sh

ဆက်တင်များကို အတည်ပြုပါ-

kubectl -n istio-system get svc

စက္ကန့်အနည်းငယ်ကြာပြီးနောက်၊ GCP သည် ဝန်ဆောင်မှုအတွက် ပြင်ပ IP လိပ်စာကို သတ်မှတ်ပေးသင့်သည်။ istio-ingressgateway.

Istio Ingress Gateway ကို စနစ်ထည့်သွင်းခြင်း။

အမည်ဖြင့် static IP လိပ်စာကို ဖန်တီးပါ။ istio-gatewayIstio တံခါးပေါက် IP လိပ်စာကို အသုံးပြုနေသည်-

export GATEWAY_IP=$(kubectl -n istio-system get svc/istio-ingressgateway -ojson | jq -r .status.loadBalancer.ingress[0].ip)
gcloud compute addresses create istio-gateway --addresses ${GATEWAY_IP} --region us-central1

ယခု သင်သည် အင်တာနက်ဒိုမိန်းတစ်ခု လိုအပ်ပြီး သင်၏ DNS မှတ်ပုံတင်အရာရှိထံ ဝင်ရောက်ခွင့် လိုအပ်ပါသည်။ A မှတ်တမ်းနှစ်ခုထည့်ပါ (အစားထိုးပါ။ example.com သင့်ဒိုမိန်းသို့):

istio.example.com   A ${GATEWAY_IP}
*.istio.example.com A ${GATEWAY_IP}

DNS သင်္ကေတသည် အလုပ်လုပ်ကြောင်း အတည်ပြုပါ-

watch host test.istio.example.com

HTTP မှတဆင့် ဝန်ဆောင်မှု mesh အပြင်ဘက်တွင် ဝန်ဆောင်မှုများပေးရန်အတွက် ယေဘူယျ Istio တံခါးပေါက်ကို ဖန်တီးပါ-

apiVersion: networking.istio.io/v1alpha3
kind: Gateway
metadata:
  name: public-gateway
  namespace: istio-system
spec:
  selector:
    istio: ingressgateway
  servers:
    - port:
        number: 80
        name: http
        protocol: HTTP
      hosts:
        - "*"

အထက်ဖော်ပြပါ အရင်းအမြစ်ကို public-gateway.yaml အဖြစ် သိမ်းဆည်းပြီး ၎င်းကို အသုံးပြုပါ-

kubectl apply -f ./public-gateway.yaml

SSL မပါဘဲ အင်တာနက်ပေါ်တွင် ဝန်ဆောင်မှုပေးသည့် ထုတ်လုပ်မှုစနစ်မရှိပါ။ သင်၏ Istio ingress gateway ကို cert-manager၊ CloudDNS နှင့် Let's Encrypt လုပ်ရန်၊ ကျေးဇူးပြု၍ ဖတ်ပါ။ စာရွက်စာတမ်း Flager G.K.E.

အလံတပ်ဆင်ခြင်း။

GKE Istio အပိုပရိုဂရမ်တွင် Istio တယ်လီမီတာဝန်ဆောင်မှုကို သန့်စင်ပေးသည့် Prometheus ဥပမာ မပါဝင်ပါ။ Flagger သည် Canary ခွဲခြမ်းစိတ်ဖြာမှုလုပ်ဆောင်ရန် Istio HTTP မက်ထရစ်များကိုအသုံးပြုသောကြောင့်၊ သင်သည် တရားဝင် Istio Helm schema ပါရှိသည့် အောက်ပါ Prometheus ဖွဲ့စည်းမှုပုံစံကို အသုံးပြုရန် လိုအပ်ပါသည်။

REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/gke/istio-prometheus.yaml

Flagger Helm သိုလှောင်ခန်းကို ထည့်ပါ-

helm repo add flagger [https://flagger.app](https://flagger.app/)

Flagger ကို namespace သို့ချဲ့ပါ။ istio-systemSlack အသိပေးချက်များကိုဖွင့်ခြင်းဖြင့်-

helm upgrade -i flagger flagger/flagger 
--namespace=istio-system 
--set metricsServer=http://prometheus.istio-system:9090 
--set slack.url=https://hooks.slack.com/services/YOUR-WEBHOOK-ID 
--set slack.channel=general 
--set slack.user=flagger

Port 9090 ရှိ Istio Prometheus ဝန်ဆောင်မှုနှင့် ဆက်သွယ်နိုင်သရွေ့ Flagger ကို မည်သည့် namespace တွင်မဆို ထည့်သွင်းနိုင်ပါသည်။

Flagger တွင် Canary ခွဲခြမ်းစိတ်ဖြာမှုအတွက် Grafana ဒက်ရှ်ဘုတ်တစ်ခုရှိသည်။ Grafana ကို namespace တွင်ထည့်သွင်းပါ။ istio-system:

helm upgrade -i flagger-grafana flagger/grafana 
--namespace=istio-system 
--set url=http://prometheus.istio-system:9090 
--set user=admin 
--set password=change-me

virtual ဝန်ဆောင်မှုကိုဖန်တီးခြင်းဖြင့် Grafana ကိုဖွင့်ထားသောတံခါးပေါက်မှတဆင့်ဖော်ထုတ်ပါ (အစားထိုးပါ။ example.com သင့်ဒိုမိန်းသို့):

apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
  name: grafana
  namespace: istio-system
spec:
  hosts:
    - "grafana.istio.example.com"
  gateways:
    - public-gateway.istio-system.svc.cluster.local
  http:
    - route:
        - destination:
            host: flagger-grafana

အထက်ဖော်ပြပါ အရင်းအမြစ်ကို grafana-virtual-service.yaml အဖြစ် သိမ်းဆည်းပြီး ၎င်းကို အသုံးပြုပါ-

kubectl apply -f ./grafana-virtual-service.yaml

သွားတဲ့အခါ http://grafana.istio.example.com သင့်ဘရောက်ဆာသည် သင့်အား Grafana အကောင့်ဝင်ခြင်းစာမျက်နှာသို့ ပြန်ညွှန်းသင့်သည်။

ဝဘ်အက်ပလီကေးရှင်းများကို Flagger ဖြင့် အသုံးပြုခြင်း။

Flagger သည် Kubernetes ကို အသုံးပြုပြီး လိုအပ်ပါက အလျားလိုက် အလိုအလျောက် အရွယ်အစား ပြောင်းလဲခြင်း (HPA)၊ ထို့နောက် အရာဝတ္ထုများ ဆက်တိုက် (Kubernetes ဖြန့်ကျက်မှု၊ ClusterIP ဝန်ဆောင်မှုများနှင့် Istio virtual ဝန်ဆောင်မှုများ) ကို ဖန်တီးပေးပါသည်။ ဤအရာဝတ္ထုများသည် အပလီကေးရှင်းအား ဝန်ဆောင်မှုကွက်သို့ ဖော်ထုတ်ပြီး ကိန္နရီခွဲခြမ်းစိတ်ဖြာမှုနှင့် မြှင့်တင်ရေးကို စီမံပါ။

Flagger နှင့် Istio တို့ဖြင့် အလိုအလျောက် Canary ဖြန့်ကျက်မှုများ

Istio Sidecar အကောင်အထည်ဖော်မှုကို ဖွင့်ထားခြင်းဖြင့် စမ်းသပ် namespace တစ်ခုကို ဖန်တီးပါ-

REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/namespaces/test.yaml

ဖြန့်ကျက်မှုတစ်ခုနှင့် pod အတွက် အလိုအလျောက် အလျားလိုက် အတိုင်းအတာတူးလ်တစ်ခု ဖန်တီးပါ-

kubectl apply -f ${REPO}/artifacts/canaries/deployment.yaml
kubectl apply -f ${REPO}/artifacts/canaries/hpa.yaml

canary ခွဲခြမ်းစိတ်ဖြာမှုအတွင်း traffic ကိုဖန်တီးရန် load test service ကိုအသုံးပြုပါ-

helm upgrade -i flagger-loadtester flagger/loadtester 
--namepace=test

စိတ်ကြိုက် canary အရင်းအမြစ်ကို ဖန်တီးပါ (အစားထိုးပါ။ example.com သင့်ဒိုမိန်းသို့):

apiVersion: flagger.app/v1alpha3
kind: Canary
metadata:
  name: podinfo
  namespace: test
spec:
  targetRef:
    apiVersion: apps/v1
    kind: Deployment
    name: podinfo
  progressDeadlineSeconds: 60
  autoscalerRef:
    apiVersion: autoscaling/v2beta1
    kind: HorizontalPodAutoscaler
    name: podinfo
  service:
    port: 9898
    gateways:
    - public-gateway.istio-system.svc.cluster.local
    hosts:
    - app.istio.example.com
  canaryAnalysis:
    interval: 30s
    threshold: 10
    maxWeight: 50
    stepWeight: 5
    metrics:
    - name: istio_requests_total
      threshold: 99
      interval: 30s
    - name: istio_request_duration_seconds_bucket
      threshold: 500
      interval: 30s
    webhooks:
      - name: load-test
        url: http://flagger-loadtester.test/
        timeout: 5s
        metadata:
          cmd: "hey -z 1m -q 10 -c 2 http://podinfo.test:9898/"

အထက်ပါ အရင်းအမြစ်ကို podinfo-canary.yaml အဖြစ် သိမ်းဆည်းပြီး ၎င်းကို အသုံးပြုပါ-

kubectl apply -f ./podinfo-canary.yaml

အထက်ဖော်ပြပါ ခွဲခြမ်းစိတ်ဖြာမှု အောင်မြင်ပါက မိနစ်ဝက်တိုင်း HTTP မက်ထရစ်များကို စစ်ဆေးပြီး ငါးမိနစ်ကြာ လုပ်ဆောင်ပါမည်။ အောက်ပါဖော်မြူလာကို အသုံးပြု၍ Canary ဖြန့်ကျက်မှုကို စမ်းသပ်ရန်နှင့် မြှင့်တင်ရန် လိုအပ်သော အနည်းဆုံးအချိန်ကို သင်ဆုံးဖြတ်နိုင်သည်- interval * (maxWeight / stepWeight). Canary CRD အကွက်များကို မှတ်တမ်းတင်ထားသည်။ ဒီမှာ.

စက္ကန့်အနည်းငယ်ကြာပြီးနောက်၊ Flagger သည် Canary အရာဝတ္ထုများကို ဖန်တီးလိမ့်မည်-

# applied 
deployment.apps/podinfo
horizontalpodautoscaler.autoscaling/podinfo
canary.flagger.app/podinfo
# generated 
deployment.apps/podinfo-primary
horizontalpodautoscaler.autoscaling/podinfo-primary
service/podinfo
service/podinfo-canary
service/podinfo-primary
virtualservice.networking.istio.io/podinfo

သင့် browser ကိုဖွင့်ပြီးသွားပါ။ app.istio.example.comဗားရှင်းနံပါတ်ကို သင်တွေ့ရပါမည်။ သရုပ်ပြအက်ပ်များ.

အလိုအလျောက်ကိန္နရီခွဲခြမ်းစိတ်ဖြာခြင်းနှင့်မြှင့်တင်ရေး

Flagger သည် HTTP တောင်းဆိုမှုအောင်မြင်နှုန်း၊ ပျမ်းမျှတောင်းဆိုမှုကြာချိန်နှင့် pod ကျန်းမာရေးကဲ့သို့သော အဓိကစွမ်းဆောင်ရည်အညွှန်းများကို တိုင်းတာစဉ်တွင် canary သို့ အသွားအလာများကို ဖြည်းဖြည်းချင်းရွေ့လျားပေးသည့် ထိန်းချုပ်ကွင်းကို အကောင်အထည်ဖော်သည်။ KPI ခွဲခြမ်းစိတ်ဖြာမှုအပေါ် အခြေခံ၍ Canary သည် ရာထူးတိုးခြင်း သို့မဟုတ် ရပ်စဲပြီး ခွဲခြမ်းစိတ်ဖြာမှုရလဒ်များကို Slack တွင် ထုတ်ပြန်ပါသည်။

Flagger နှင့် Istio တို့ဖြင့် အလိုအလျောက် Canary ဖြန့်ကျက်မှုများ

အောက်ပါအရာများထဲမှ တစ်ခုကို ပြောင်းလဲသောအခါ Canary ဖြန့်ကျက်မှုကို အစပျိုးသည်-

  • PodSpec ကို အသုံးပြုပါ (ကွန်တိန်နာပုံ၊ အမိန့်ပေးမှု၊ ဆိပ်ကမ်းများ၊ env စသည်ဖြင့်)
  • ConfigMaps ကို အတွဲများအဖြစ် တပ်ဆင်ထားသည် သို့မဟုတ် ပတ်ဝန်းကျင် ကိန်းရှင်များအဖြစ်သို့ ပြောင်းလဲထားသည်။
  • လျှို့ဝှက်ချက်များကို အတွဲများအဖြစ် တပ်ဆင်ထားသည် သို့မဟုတ် ပတ်ဝန်းကျင်ဆိုင်ရာ ကိန်းရှင်များအဖြစ် ပြောင်းလဲထားသည်။

ကွန်တိန်နာပုံကို အပ်ဒိတ်လုပ်သောအခါ Canary ဖြန့်ကျက်မှုကို လုပ်ဆောင်ပါ-

kubectl -n test set image deployment/podinfo 
podinfod=quay.io/stefanprodan/podinfo:1.4.1

အသုံးပြုမှုဗားရှင်းပြောင်းသွားသည်ကို Flagger က သိရှိပြီး ၎င်းကို ခွဲခြမ်းစိတ်ဖြာရန် စတင်သည်-

kubectl -n test describe canary/podinfo

Events:

New revision detected podinfo.test
Scaling up podinfo.test
Waiting for podinfo.test rollout to finish: 0 of 1 updated replicas are available
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Advance podinfo.test canary weight 20
Advance podinfo.test canary weight 25
Advance podinfo.test canary weight 30
Advance podinfo.test canary weight 35
Advance podinfo.test canary weight 40
Advance podinfo.test canary weight 45
Advance podinfo.test canary weight 50
Copying podinfo.test template spec to podinfo-primary.test
Waiting for podinfo-primary.test rollout to finish: 1 of 2 updated replicas are available
Promotion completed! Scaling down podinfo.test

ခွဲခြမ်းစိတ်ဖြာမှုအတွင်း၊ ကိန္နရီရလဒ်များကို Grafana ကို အသုံးပြု၍ စောင့်ကြည့်နိုင်သည်။

Flagger နှင့် Istio တို့ဖြင့် အလိုအလျောက် Canary ဖြန့်ကျက်မှုများ

ကျေးဇူးပြု၍ သတိပြုပါ- Canary ခွဲခြမ်းစိတ်ဖြာမှုအတွင်း ဖြန့်ကျက်မှုတွင် အပြောင်းအလဲအသစ်များကို အသုံးပြုပါက၊ Flagger သည် ခွဲခြမ်းစိတ်ဖြာမှုအဆင့်ကို ပြန်လည်စတင်မည်ဖြစ်သည်။

သင့်အစုအဝေးရှိ ကိန္နရီများအားလုံးကို စာရင်းပြုလုပ်ပါ-

watch kubectl get canaries --all-namespaces
NAMESPACE   NAME      STATUS        WEIGHT   LASTTRANSITIONTIME
test        podinfo   Progressing   15       2019-01-16T14:05:07Z
prod        frontend  Succeeded     0        2019-01-15T16:15:07Z
prod        backend   Failed        0        2019-01-14T17:05:07Z

အကယ်၍ သင်သည် Slack အကြောင်းကြားချက်များကို ဖွင့်ထားပါက အောက်ပါမက်ဆေ့ချ်များကို သင်လက်ခံရရှိလိမ့်မည်-

Flagger နှင့် Istio တို့ဖြင့် အလိုအလျောက် Canary ဖြန့်ကျက်မှုများ

အလိုအလျောက်ပြန်လှည့်ခြင်း။

Canary ခွဲခြမ်းစိတ်ဖြာမှုအတွင်း၊ Flagger သည် ဖြန့်ကျက်မှုကို ရပ်သွားခြင်း ရှိ၊ မရှိ စစ်ဆေးရန် ပေါင်းစပ် HTTP 500 အမှားများနှင့် တုံ့ပြန်မှု ကြာမြင့်ချိန်ကို ထုတ်ပေးနိုင်သည်။

စမ်းသပ်မှု pod တစ်ခုကို ဖန်တီးပြီး ၎င်းတွင် အောက်ပါအတိုင်း လုပ်ဆောင်ပါ။

kubectl -n test run tester 
--image=quay.io/stefanprodan/podinfo:1.2.1 
-- ./podinfo --port=9898
kubectl -n test exec -it tester-xx-xx sh

HTTP 500 အမှားများကို ဖန်တီးနေသည်-

watch curl http://podinfo-canary:9898/status/500

နောက်ကျမျိုးဆက်-

watch curl http://podinfo-canary:9898/delay/1

မအောင်မြင်သောစစ်ဆေးမှုအရေအတွက်သည် သတ်မှတ်ချက်တစ်ခုသို့ရောက်ရှိသောအခါ၊ လမ်းကြောင်းသည် မူလချန်နယ်သို့ ပြန်သွားမည်ဖြစ်ပြီး၊ Canary ကို သုညအထိ တိုင်းတာပြီး အသုံးပြုမှုကို မအောင်မြင်ကြောင်း အမှတ်အသားပြုပါသည်။

Canary အမှားများနှင့် latency spikes များကို Kubernetes ဖြစ်ရပ်များအဖြစ် မှတ်တမ်းတင်ထားပြီး Flagger မှ JSON ဖော်မတ်ဖြင့် မှတ်တမ်းတင်ထားသည်-

kubectl -n istio-system logs deployment/flagger -f | jq .msg

Starting canary deployment for podinfo.test
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Halt podinfo.test advancement success rate 69.17% < 99%
Halt podinfo.test advancement success rate 61.39% < 99%
Halt podinfo.test advancement success rate 55.06% < 99%
Halt podinfo.test advancement success rate 47.00% < 99%
Halt podinfo.test advancement success rate 37.00% < 99%
Halt podinfo.test advancement request duration 1.515s > 500ms
Halt podinfo.test advancement request duration 1.600s > 500ms
Halt podinfo.test advancement request duration 1.915s > 500ms
Halt podinfo.test advancement request duration 2.050s > 500ms
Halt podinfo.test advancement request duration 2.515s > 500ms
Rolling back podinfo.test failed checks threshold reached 10
Canary failed! Scaling down podinfo.test

အကယ်၍ သင်သည် Slack အကြောင်းကြားချက်များကို ဖွင့်ထားပါက၊ ခွဲခြမ်းစိတ်ဖြာမှုတစ်ခုတွင် မအောင်မြင်သော သုံးသပ်ချက်အများဆုံး အရေအတွက်ကို ကျော်လွန်သွားသောအခါတွင် မက်ဆေ့ချ်တစ်စောင် လက်ခံရရှိလိမ့်မည်-

Flagger နှင့် Istio တို့ဖြင့် အလိုအလျောက် Canary ဖြန့်ကျက်မှုများ

နိဂုံးချုပ်

Kubernetes ထိပ်ရှိ Istio ကဲ့သို့ ဝန်ဆောင်မှု mesh တစ်ခုကို လုပ်ဆောင်ခြင်းသည် အလိုအလျောက် တိုင်းတာမှုများ၊ မှတ်တမ်းများနှင့် မှတ်တမ်းများကို ပေးစွမ်းနိုင်သော်လည်း အလုပ်ချိန်များကို အသုံးချခြင်းသည် ပြင်ပကိရိယာများပေါ်တွင် မူတည်နေသေးသည်။ Flagger သည် Istio စွမ်းရည်များကို ထည့်သွင်းခြင်းဖြင့် ၎င်းကို ပြောင်းလဲရန် ရည်ရွယ်သည်။ တိုးတက်ပို့ဆောင်ခြင်း။.

Flagger သည် Kubernetes အတွက် မည်သည့် CI/CD ဖြေရှင်းချက်နှင့်မဆို သဟဇာတဖြစ်ပြီး Canary ခွဲခြမ်းစိတ်ဖြာမှုကို အလွယ်တကူ တိုးချဲ့နိုင်သည်။ webhooks စနစ်ပေါင်းစည်းခြင်း/လက်ခံမှုစမ်းသပ်မှုများ၊ တင်ရန်စမ်းသပ်မှုများ သို့မဟုတ် အခြားစိတ်ကြိုက်စမ်းသပ်မှုများကို လုပ်ဆောင်ရန်။ Flagger သည် ကြေငြာပြီး Kubernetes ဖြစ်ရပ်များကို တုံ့ပြန်သောကြောင့်၊ ၎င်းကို GitOps ပိုက်လိုင်းများနှင့်အတူ အသုံးပြုနိုင်ပါသည်။ Weave Flux သို့မဟုတ် JenkinsX. အကယ်၍ သင်သည် JenkinsX ကိုအသုံးပြုနေပါက၊ သင်သည် jx add-ons ဖြင့် Flagger ကိုထည့်သွင်းနိုင်သည်။

Flager ကို ပံ့ပိုးထားသည်။ ရက်ကန်းလုပ်ငန်း နှင့် Canary များတွင် တပ်ဖြန့်ချထားပေးသည်။ Weave Cloud. ပရောဂျက်ကို GKE၊ EKS နှင့် kubeadm ဖြင့် သတ္တုဗလာဖြင့် စမ်းသပ်ထားသည်။

Flagger ပိုမိုကောင်းမွန်စေရန်အတွက် အကြံပြုချက်များရှိပါက၊ ကျေးဇူးပြု၍ ပြဿနာတစ်ခု သို့မဟုတ် PR ကို GitHub တွင် တင်ပြပါ။ Stefanprodan/flagger. ပံ့ပိုးမှုများကို ကြိုဆိုသည်ထက် ပိုပါသည်။

Спасибо Ray Tsang.

source: www.habr.com

မှတ်ချက် Add