Flagger жана Istio менен автоматтык канареяларды жайгаштыруу

Flagger жана Istio менен автоматтык канареяларды жайгаштыруу

CD ишкананын программалык камсыздоо практикасы катары таанылат жана белгиленген CI принциптеринин табигый эволюциясынын натыйжасы болуп саналат. Бирок, компакт-диск дагы деле сейрек кездешет, балким, башкаруунун татаалдыгынан жана системанын жеткиликтүүлүгүнө таасирин тийгизген ишке ашпай коюудан коркуудан улам.

желекчи башаламан мамилелерди жок кылууга багытталган ачык булак Kubernetes оператору. Ал башкарылуучу жайылтуу учурунда колдонмонун жүрүм-турумун талдоо үчүн Istio трафиктин офсети жана Prometheus метрикасынын жардамы менен канарларды жайылтууну жылдырууну автоматташтырат.

Төмөндө Google Kubernetes Engine (GKE) боюнча Flaggerди орнотуу жана колдонуу боюнча кадам-кадам нускама келтирилген.

Kubernetes кластерин орнотуу

Сиз Istio кошумчасы менен GKE кластерин түзүү менен баштайсыз (эгерде GCP каттоо эсебиңиз жок болсо, каттала аласыз бул жерде - бекер кредиттерди алуу үчүн).

Google Булутка кирип, долбоор түзүп, ал үчүн эсеп коюуну иштетиңиз. Буйрук сабынын утилитасын орнотуңуз gcloud менен долбооруңузду орнотуңуз gcloud init.

Демейки долбоорду, эсептөө аймагын жана зонаны коюу (алмаштыруу PROJECT_ID Сиздин долбоор үчүн):

gcloud config set project PROJECT_ID
gcloud config set compute/region us-central1
gcloud config set compute/zone us-central1-a

GKE кызматын иштетиңиз жана HPA жана Istio кошумчалары менен кластер түзүңүз:

gcloud services enable container.googleapis.com
K8S_VERSION=$(gcloud beta container get-server-config --format=json | jq -r '.validMasterVersions[0]')
gcloud beta container clusters create istio 
--cluster-version=${K8S_VERSION} 
--zone=us-central1-a 
--num-nodes=2 
--machine-type=n1-standard-2 
--disk-size=30 
--enable-autorepair 
--no-enable-cloud-logging 
--no-enable-cloud-monitoring 
--addons=HorizontalPodAutoscaling,Istio 
--istio-config=auth=MTLS_PERMISSIVE

Жогорудагы буйрук эки VMди камтыган демейки түйүн бассейнин түзөт n1-standard-2 (vCPU: 2, RAM 7,5 ГБ, диск: 30 ГБ). Идеалында, сиз Istio компоненттерин иш жүктөөлөрүңүздөн бөлүп алышыңыз керек, бирок Istio Podдорду түйүндөрдүн атайын бассейнинде иштетүүнүн оңой жолу жок. Istio манифесттери окуу үчүн гана деп эсептелинет жана GKE түйүнгө шилтемелөө же поддон ажыратуу сыяктуу бардык өзгөртүүлөрдү жокко чыгарат.

үчүн эсептик дайындарды орнотуу kubectl:

gcloud container clusters get-credentials istio

Кластердин администратор ролун түзүү:

kubectl create clusterrolebinding "cluster-admin-$(whoami)" 
--clusterrole=cluster-admin 
--user="$(gcloud config get-value core/account)"

буйрук сабы куралын орнотуу башкаруу рулю:

brew install kubernetes-helm

Homebrew 2.0 азыр да жеткиликтүү Linux.

Тиллер үчүн кызмат эсебин жана кластердик ролду түзүңүз:

kubectl -n kube-system create sa tiller && 
kubectl create clusterrolebinding tiller-cluster-rule 
--clusterrole=cluster-admin 
--serviceaccount=kube-system:tiller

Ат мейкиндигинде Tillerди жайыңыз kube-system:

helm init --service-account tiller

Сиз Helm жана Tiller ортосунда SSL колдонууну ойлонушуңуз керек. Helm орнотууну коргоо жөнүндө көбүрөөк маалымат алуу үчүн, караңыз docs.helm.sh

Жөндөөлөрдү ырастоо:

kubectl -n istio-system get svc

Бир нече секунддан кийин, GCP кызмат үчүн тышкы IP дарегин дайындашы керек istio-ingressgateway.

Istio Ingress Gateway конфигурацияланууда

аты менен статикалык IP дарегин түзүү istio-gatewayIstio шлюзунун IP дарегин колдонуу:

export GATEWAY_IP=$(kubectl -n istio-system get svc/istio-ingressgateway -ojson | jq -r .status.loadBalancer.ingress[0].ip)
gcloud compute addresses create istio-gateway --addresses ${GATEWAY_IP} --region us-central1

Эми сизге интернет домени жана DNS регистриңизге кирүү керек. Эки А жазуусун кошуу (алмаштыруу example.com сиздин домениңизге):

istio.example.com   A ${GATEWAY_IP}
*.istio.example.com A ${GATEWAY_IP}

DNS коюу белгиси иштеп жатканын текшериңиз:

watch host test.istio.example.com

HTTP аркылуу тейлөө торунан тышкары кызматтарды көрсөтүү үчүн жалпы Istio шлюзун түзүңүз:

apiVersion: networking.istio.io/v1alpha3
kind: Gateway
metadata:
  name: public-gateway
  namespace: istio-system
spec:
  selector:
    istio: ingressgateway
  servers:
    - port:
        number: 80
        name: http
        protocol: HTTP
      hosts:
        - "*"

Жогорудагы булакты public-gateway.yaml катары сактап, анан колдонуңуз:

kubectl apply -f ./public-gateway.yaml

Эч бир өндүрүш системасы SSLсиз Интернетте кызматтарды көрсөтпөшү керек. Istio кирүү шлюзун cert-менеджер, CloudDNS жана Let's Encrypt менен камсыз кылуу үчүн, окуңуз документтештирүү Желекчи Г.К.Э.

Flagger орнотуу

GKE Istio кошумчасы Istio телеметрия кызматын тазалаган Prometheus инстанциясын камтыбайт. Flagger канар анализин жүргүзүү үчүн Istio HTTP метрикасын колдонгондуктан, расмий Istio Helm схемасы менен келгенге окшош төмөнкү Prometheus конфигурациясын жайылтышыңыз керек.

REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/gke/istio-prometheus.yaml

Flagger Helm репозиторийсин кошуңуз:

helm repo add flagger [https://flagger.app](https://flagger.app/)

Flaggerди аттар мейкиндигине жайыңыз istio-systemSlack эскертмелерин иштетүү менен:

helm upgrade -i flagger flagger/flagger 
--namespace=istio-system 
--set metricsServer=http://prometheus.istio-system:9090 
--set slack.url=https://hooks.slack.com/services/YOUR-WEBHOOK-ID 
--set slack.channel=general 
--set slack.user=flagger

Сиз Flaggerди каалаган аттар мейкиндигине орното аласыз, эгерде ал 9090 портунда Istio Prometheus кызматы менен байланыша алат.

Flagger'де канарейлерди анализдөө үчүн Grafana башкаруу тактасы бар. Ат мейкиндигине Grafana орнотуңуз istio-system:

helm upgrade -i flagger-grafana flagger/grafana 
--namespace=istio-system 
--set url=http://prometheus.istio-system:9090 
--set user=admin 
--set password=change-me

Виртуалдык кызматты түзүү аркылуу Grafanaны ачык шлюз аркылуу көрсөтүңүз (алмаштыруу example.com сиздин домениңизге):

apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
  name: grafana
  namespace: istio-system
spec:
  hosts:
    - "grafana.istio.example.com"
  gateways:
    - public-gateway.istio-system.svc.cluster.local
  http:
    - route:
        - destination:
            host: flagger-grafana

Жогорудагы булакты grafana-virtual-service.yaml катары сактап, анан колдонуңуз:

kubectl apply -f ./grafana-virtual-service.yaml

Көчкөндө http://grafana.istio.example.com браузерде сиз Grafana кирүү барагына багытталышыңыз керек.

Flagger менен веб-тиркемелерди жайылтуу

Flagger Kubernetesти жайгаштырат жана ыктыярдуу түрдө автоматтык түрдө кеңейтет (HPA), андан кийин бир катар объекттерди түзөт (Kubernetes жайылтуулары, ClusterIP кызматтары жана Istio виртуалдык кызматтары). Бул объекттер колдонмону тейлөө тармагына ачып, канарлык анализди жана прогрессти көзөмөлдөйт.

Flagger жана Istio менен автоматтык канареяларды жайгаштыруу

Istio Sidecar инъекциясы иштетилген менен сыноо аталыш мейкиндигин түзүңүз:

REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/namespaces/test.yaml

Жайгаштыруу жана автоматтык масштабдоо куралын түзүңүз:

kubectl apply -f ${REPO}/artifacts/canaries/deployment.yaml
kubectl apply -f ${REPO}/artifacts/canaries/hpa.yaml

Канар анализи учурунда трафикти түзүү үчүн сыноо жүктөө кызматын жайылтыңыз:

helm upgrade -i flagger-loadtester flagger/loadtester 
--namepace=test

Ыңгайлаштырылган канар булагын түзүү (алмаштыруу example.com сиздин домениңизге):

apiVersion: flagger.app/v1alpha3
kind: Canary
metadata:
  name: podinfo
  namespace: test
spec:
  targetRef:
    apiVersion: apps/v1
    kind: Deployment
    name: podinfo
  progressDeadlineSeconds: 60
  autoscalerRef:
    apiVersion: autoscaling/v2beta1
    kind: HorizontalPodAutoscaler
    name: podinfo
  service:
    port: 9898
    gateways:
    - public-gateway.istio-system.svc.cluster.local
    hosts:
    - app.istio.example.com
  canaryAnalysis:
    interval: 30s
    threshold: 10
    maxWeight: 50
    stepWeight: 5
    metrics:
    - name: istio_requests_total
      threshold: 99
      interval: 30s
    - name: istio_request_duration_seconds_bucket
      threshold: 500
      interval: 30s
    webhooks:
      - name: load-test
        url: http://flagger-loadtester.test/
        timeout: 5s
        metadata:
          cmd: "hey -z 1m -q 10 -c 2 http://podinfo.test:9898/"

Жогорудагы булакты podinfo-canary.yaml катары сактап, анан колдонуңуз:

kubectl apply -f ./podinfo-canary.yaml

Жогорудагы талдоо ийгиликтүү болсо, ар бир жарым мүнөт сайын HTTP көрсөткүчтөрүн текшерип, беш мүнөт иштейт. Төмөнкү формуланы колдонуп, канареянын жайылышын текшерүү жана илгерилетүү үчүн талап кылынган минималдуу убакытты аныктай аласыз: interval * (maxWeight / stepWeight). Canary CRD талаалары документтештирилген бул жерде.

Бир нече секунддан кийин Flagger канарей объекттерин түзөт:

# applied 
deployment.apps/podinfo
horizontalpodautoscaler.autoscaling/podinfo
canary.flagger.app/podinfo
# generated 
deployment.apps/podinfo-primary
horizontalpodautoscaler.autoscaling/podinfo-primary
service/podinfo
service/podinfo-canary
service/podinfo-primary
virtualservice.networking.istio.io/podinfo

Браузерди ачып, өтүңүз app.istio.example.com, сиз версия номерин көрүшүңүз керек демо колдонмолор.

Автоматтык канариялык анализ жана жылдыруу

Flagger башкаруу циклин ишке ашырат, ал трафикти акырындап канарияга жылдырат, ошол эле учурда HTTP сурамынын ийгилиги, орточо сурамдын узактыгы жана поддондун ден соолугу сыяктуу негизги көрсөткүчтөрдү өлчөйт. KPI талдоосунун негизинде, канарейин алдыга жылдырылат же үзгүлтүккө учуратат жана анализдин натыйжалары Slackке жарыяланат.

Flagger жана Istio менен автоматтык канареяларды жайгаштыруу

Канарияны жайылтуу төмөнкү объекттердин бири өзгөргөндө иштетилет:

  • PodSpecти жайылтуу (контейнер сүрөтү, буйрук, порттор, env ж.б.)
  • ConfigMaps көлөмдөр катары орнотулат же чөйрө өзгөрмөлөрү менен салыштырылат
  • Сырлар көлөм катары орнотулат же чөйрө өзгөрмөлөрүнө айландырылат

Контейнердин сүрөтүн жаңыртууда canary deploy иштетиңиз:

kubectl -n test set image deployment/podinfo 
podinfod=quay.io/stefanprodan/podinfo:1.4.1

Flagger жайылтуу версиясынын өзгөргөнүн аныктап, аны талдай баштайт:

kubectl -n test describe canary/podinfo

Events:

New revision detected podinfo.test
Scaling up podinfo.test
Waiting for podinfo.test rollout to finish: 0 of 1 updated replicas are available
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Advance podinfo.test canary weight 20
Advance podinfo.test canary weight 25
Advance podinfo.test canary weight 30
Advance podinfo.test canary weight 35
Advance podinfo.test canary weight 40
Advance podinfo.test canary weight 45
Advance podinfo.test canary weight 50
Copying podinfo.test template spec to podinfo-primary.test
Waiting for podinfo-primary.test rollout to finish: 1 of 2 updated replicas are available
Promotion completed! Scaling down podinfo.test

Талдоо учурунда, канарейлердин натыйжаларын Grafana аркылуу байкоого болот:

Flagger жана Istio менен автоматтык канареяларды жайгаштыруу

Канар анализи учурунда жайылтууга жаңы өзгөртүүлөр колдонулса, Flagger талдоо фазасын кайра баштаарын эске алыңыз.

Кластериңиздеги бардык канареялардын тизмесин түзүңүз:

watch kubectl get canaries --all-namespaces
NAMESPACE   NAME      STATUS        WEIGHT   LASTTRANSITIONTIME
test        podinfo   Progressing   15       2019-01-16T14:05:07Z
prod        frontend  Succeeded     0        2019-01-15T16:15:07Z
prod        backend   Failed        0        2019-01-14T17:05:07Z

Эгер сиз Slack эскертмелерин иштеткен болсоңуз, сиз төмөнкү билдирүүлөрдү аласыз:

Flagger жана Istio менен автоматтык канареяларды жайгаштыруу

Автоматтык артка кайтаруу

Канар анализи учурунда, Flagger жайылтууну токтоторун көрүү үчүн синтетикалык HTTP 500 каталарын жана жогорку жооп күтүү убактысын түзө аласыз.

Сыноо подъезди түзүп, анда төмөнкүлөрдү аткарыңыз:

kubectl -n test run tester 
--image=quay.io/stefanprodan/podinfo:1.2.1 
-- ./podinfo --port=9898
kubectl -n test exec -it tester-xx-xx sh

HTTP 500 каталарын түзүү:

watch curl http://podinfo-canary:9898/status/500

Кечиктирүү түзүү:

watch curl http://podinfo-canary:9898/delay/1

Ийгиликсиз текшерүүлөрдүн саны босогого жеткенде, трафик кайра негизги каналга багытталат, канар нөлгө чейин масштабдалат жана жайылтуу ишке ашкан жок деп белгиленет.

Канар каталары жана күтүү убакыты Kubernetes окуялары катары катталат жана Flagger тарабынан JSON форматында катталат:

kubectl -n istio-system logs deployment/flagger -f | jq .msg

Starting canary deployment for podinfo.test
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Halt podinfo.test advancement success rate 69.17% < 99%
Halt podinfo.test advancement success rate 61.39% < 99%
Halt podinfo.test advancement success rate 55.06% < 99%
Halt podinfo.test advancement success rate 47.00% < 99%
Halt podinfo.test advancement success rate 37.00% < 99%
Halt podinfo.test advancement request duration 1.515s > 500ms
Halt podinfo.test advancement request duration 1.600s > 500ms
Halt podinfo.test advancement request duration 1.915s > 500ms
Halt podinfo.test advancement request duration 2.050s > 500ms
Halt podinfo.test advancement request duration 2.515s > 500ms
Rolling back podinfo.test failed checks threshold reached 10
Canary failed! Scaling down podinfo.test

Эгер сиз Slack эскертмелерин иштеткен болсоңуз, акыркы мөөнөт өтүп кеткенде же талдоодо аткарылбай калган текшерүүлөрдүн максималдуу санына жеткенде билдирүү аласыз:

Flagger жана Istio менен автоматтык канареяларды жайгаштыруу

Жыйынтык

Kubernetes'ге кошумча Istio сыяктуу тейлөө тармагын иштетүү автоматтык метрикаларды, журналдарды жана протоколдорду камсыз кылат, бирок жумуш жүгүн жайылтуу дагы деле тышкы куралдардан көз каранды. Flagger муну Istio мүмкүнчүлүктөрүн кошуу менен өзгөртүүнү көздөйт прогрессивдуу камсыз кылуу.

Flagger бардык Kubernetes CI/CD чечими менен шайкеш келет жана канариялык анализди оңой эле узартса болот. вебхуктар системаны интеграциялоо/кабыл алуу тесттерин, жүктөө тесттерин же башка бажы текшерүүлөрүн аткаруу үчүн. Flagger декларативдик болгондуктан жана Kubernetes окуяларына жооп бергендиктен, аны GitOps түтүктөрү менен бирге колдонсо болот. Weave Flux же JenkinsX. Эгер сиз JenkinsX колдонуп жатсаңыз, Flaggerди jx кошумчалары менен орното аласыз.

Flager колдоого алынган токуу иштери жана канареяларды жайгаштырууну камсыз кылат Weave Cloud. Долбоор GKE, EKS жана кубеадм менен жылаңач металлда сыналууда.

Flaggerди жакшыртуу боюнча сунуштарыңыз болсо, GitHub сайтында маселени же PRды тапшырыңыз stefanprodan/flagger. Салымдар кооптуу!

Спасибо Рэй Цанг.

Source: www.habr.com

Комментарий кошуу