CDa enpresa-softwarearen praktika gisa aitortzen da eta ezarritako CI printzipioen bilakaera naturala da. Hala ere, CD nahiko arraroa da, agian kudeaketaren konplexutasunarengatik eta sistemaren erabilgarritasunari eragiten dioten inplementazio hutsen beldurragatik.
Jarraian, Google Kubernetes Engine-n (GKE) Flagger konfiguratzeko eta erabiltzeko urratsez urratseko gida dago.
Kubernetes kluster bat konfiguratzea
Istio gehigarriarekin GKE kluster bat sortzen hasten zara (GCP konturik ez baduzu, erregistra zaitezke
Hasi saioa Google Cloud-en, sortu proiektu bat eta gaitu horren fakturazioa. Instalatu komando lerroko utilitatea gcloud init
.
Ezarri lehenetsitako proiektua, kalkulu-eremua eta zona (ordeztu PROJECT_ID
zure proiekturako):
gcloud config set project PROJECT_ID
gcloud config set compute/region us-central1
gcloud config set compute/zone us-central1-a
Gaitu GKE zerbitzua eta sortu kluster bat HPA eta Istio gehigarriekin:
gcloud services enable container.googleapis.com
K8S_VERSION=$(gcloud beta container get-server-config --format=json | jq -r '.validMasterVersions[0]')
gcloud beta container clusters create istio
--cluster-version=${K8S_VERSION}
--zone=us-central1-a
--num-nodes=2
--machine-type=n1-standard-2
--disk-size=30
--enable-autorepair
--no-enable-cloud-logging
--no-enable-cloud-monitoring
--addons=HorizontalPodAutoscaling,Istio
--istio-config=auth=MTLS_PERMISSIVE
Goiko komandoak bi VMz osatutako nodo multzo lehenetsi bat sortuko du n1-standard-2
(vCPU: 2, RAM 7,5 GB, diskoa: 30 GB). Egokiena, Istio-ren osagaiak beren lan-kargatik isolatuta egon behar dira, baina ez dago Istio podak dedikatu nodo multzo batean exekutatzeko modu errazik. Istio manifestuak irakurtzeko soilik hartzen dira, eta GKE-k aldaketa guztiak itzuliko ditu, hala nola nodo batera lotzea edo pod batetik deskonektatzea.
Konfiguratu kredentzialak kubectl
:
gcloud container clusters get-credentials istio
Sortu klusterreko administratzaile-rolaren lotura:
kubectl create clusterrolebinding "cluster-admin-$(whoami)"
--clusterrole=cluster-admin
--user="$(gcloud config get-value core/account)"
Instalatu komando lerroko tresna
brew install kubernetes-helm
Homebrew 2.0 ere eskuragarri dago orain
Sortu zerbitzu-kontu bat eta kluster rol-lotura Tillerrentzat:
kubectl -n kube-system create sa tiller &&
kubectl create clusterrolebinding tiller-cluster-rule
--clusterrole=cluster-admin
--serviceaccount=kube-system:tiller
Zabaldu Tiller izen-eremuan kube-system
:
helm init --service-account tiller
Helm eta Tiller artean SSL erabiltzea kontuan hartu beharko zenuke. Helm-en instalazioa babesteari buruzko informazio gehiago lortzeko, ikus
Berretsi ezarpenak:
kubectl -n istio-system get svc
Segundo batzuk igaro ondoren, GCPk kanpoko IP helbide bat esleitu beharko lioke zerbitzuari istio-ingressgateway
.
Istio Ingress Gateway bat konfiguratzea
Sortu IP helbide estatiko bat izenarekin istio-gateway
Istio atebidearen IP helbidea erabiliz:
export GATEWAY_IP=$(kubectl -n istio-system get svc/istio-ingressgateway -ojson | jq -r .status.loadBalancer.ingress[0].ip)
gcloud compute addresses create istio-gateway --addresses ${GATEWAY_IP} --region us-central1
Orain Interneteko domeinu bat eta zure DNS erregistratzailerako sarbidea behar dituzu. Gehitu bi A erregistro (ordeztu example.com
zure domeinura):
istio.example.com A ${GATEWAY_IP}
*.istio.example.com A ${GATEWAY_IP}
Egiaztatu DNS komodinak funtzionatzen duela:
watch host test.istio.example.com
Sortu Istio atebide generiko bat HTTP bidez zerbitzu saretik kanpo zerbitzuak eskaintzeko:
apiVersion: networking.istio.io/v1alpha3
kind: Gateway
metadata:
name: public-gateway
namespace: istio-system
spec:
selector:
istio: ingressgateway
servers:
- port:
number: 80
name: http
protocol: HTTP
hosts:
- "*"
Gorde goiko baliabidea public-gateway.yaml gisa eta aplikatu ezazu:
kubectl apply -f ./public-gateway.yaml
Produkzio-sistemak ez luke zerbitzurik eman behar Interneten SSLrik gabe. Istio sarrerako atebidea ziur-kudeatzaile, CloudDNS eta Let's Encrypt-ekin ziurtatzeko, irakurri
Marker instalazioa
GKE Istio gehigarriak ez du Istio telemetria zerbitzua garbitzen duen Prometheus instantziarik sartzen. Flaggerrek Istio HTTP neurketak erabiltzen dituenez kanarioen analisia egiteko, Prometheus-en konfigurazio hau zabaldu behar duzu, Istio Helm eskema ofizialarekin datorrenaren antzekoa.
REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/gke/istio-prometheus.yaml
Gehitu Flagger Helm biltegia:
helm repo add flagger [https://flagger.app](https://flagger.app/)
Zabaldu Flagger izen-espaziora istio-system
Slack jakinarazpenak gaituz:
helm upgrade -i flagger flagger/flagger
--namespace=istio-system
--set metricsServer=http://prometheus.istio-system:9090
--set slack.url=https://hooks.slack.com/services/YOUR-WEBHOOK-ID
--set slack.channel=general
--set slack.user=flagger
Flagger edozein izen-espaziotan instala dezakezu Istio Prometheus zerbitzuarekin 9090 atakan komunikatzen bada.
Flagger-ek Grafana panel bat du kanarien analisirako. Instalatu Grafana izen-eremuan istio-system
:
helm upgrade -i flagger-grafana flagger/grafana
--namespace=istio-system
--set url=http://prometheus.istio-system:9090
--set user=admin
--set password=change-me
Erakutsi Grafana atebide ireki baten bidez zerbitzu birtual bat sortuz (ordeztu example.com
zure domeinura):
apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
name: grafana
namespace: istio-system
spec:
hosts:
- "grafana.istio.example.com"
gateways:
- public-gateway.istio-system.svc.cluster.local
http:
- route:
- destination:
host: flagger-grafana
Gorde goiko baliabidea grafana-virtual-service.yaml gisa eta aplikatu ezazu:
kubectl apply -f ./grafana-virtual-service.yaml
Joaterakoan http://grafana.istio.example.com
Zure arakatzaileak Grafana saioa hasteko orrira birbideratu behar zaitu.
Web aplikazioak Flagger-ekin zabaltzea
Flaggerrek Kubernetes eta, behar izanez gero, eskalatze automatikoa horizontala (HPA) inplementatzen ditu, ondoren objektu sorta bat sortzen du (Kubernetes inplementazioak, ClusterIP zerbitzuak eta Istio zerbitzu birtualak). Objektu hauek aplikazioa zerbitzu-sarera erakusten dute eta kanarioen analisia eta sustapena kudeatzen dute.
Sortu probako izen-eremu bat Istio Sidecar inplementazioa gaituta:
REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/namespaces/test.yaml
Sortu hedapen bat eta eskalatze horizontal automatikoko tresna bat podarentzat:
kubectl apply -f ${REPO}/artifacts/canaries/deployment.yaml
kubectl apply -f ${REPO}/artifacts/canaries/hpa.yaml
Inplementatu karga-proba-zerbitzu bat trafikoa sortzeko kanariar analisian zehar:
helm upgrade -i flagger-loadtester flagger/loadtester
--namepace=test
Sortu kanariar baliabide pertsonalizatu bat (ordeztu example.com
zure domeinura):
apiVersion: flagger.app/v1alpha3
kind: Canary
metadata:
name: podinfo
namespace: test
spec:
targetRef:
apiVersion: apps/v1
kind: Deployment
name: podinfo
progressDeadlineSeconds: 60
autoscalerRef:
apiVersion: autoscaling/v2beta1
kind: HorizontalPodAutoscaler
name: podinfo
service:
port: 9898
gateways:
- public-gateway.istio-system.svc.cluster.local
hosts:
- app.istio.example.com
canaryAnalysis:
interval: 30s
threshold: 10
maxWeight: 50
stepWeight: 5
metrics:
- name: istio_requests_total
threshold: 99
interval: 30s
- name: istio_request_duration_seconds_bucket
threshold: 500
interval: 30s
webhooks:
- name: load-test
url: http://flagger-loadtester.test/
timeout: 5s
metadata:
cmd: "hey -z 1m -q 10 -c 2 http://podinfo.test:9898/"
Gorde goiko baliabidea podinfo-canary.yaml gisa eta aplikatu ezazu:
kubectl apply -f ./podinfo-canary.yaml
Goiko analisia, arrakasta izanez gero, bost minutuz exekutatzen da, HTTP neurketak minutu erdiro egiaztatuz. Kanariar inplementazio bat probatzeko eta sustatzeko behar den gutxieneko denbora zehaztu dezakezu formula hau erabiliz: interval * (maxWeight / stepWeight)
. Kanariar CRD eremuak dokumentatuta daude
Segundo pare bat igaro ondoren, Flaggerrek kanariar objektuak sortuko ditu:
# applied
deployment.apps/podinfo
horizontalpodautoscaler.autoscaling/podinfo
canary.flagger.app/podinfo
# generated
deployment.apps/podinfo-primary
horizontalpodautoscaler.autoscaling/podinfo-primary
service/podinfo
service/podinfo-canary
service/podinfo-primary
virtualservice.networking.istio.io/podinfo
Ireki arakatzailea eta joan hona app.istio.example.com
, bertsio-zenbakia ikusi beharko zenuke
Kanarioen azterketa eta sustapen automatikoa
Flagger-ek kontrol-begizta bat ezartzen du, trafikoa pixkanaka kanariara eramaten duen bitartean, errendimendu-adierazle nagusiak neurtzen dituen bitartean, hala nola HTTP eskaeraren arrakasta-tasa, eskaeraren batez besteko iraupena eta podaren osasuna. KPI analisian oinarrituta, kanaria sustatzen edo amaitzen da, eta analisiaren emaitzak Slack-en argitaratzen dira.
Canary inplementazioa objektu hauetako bat aldatzen denean abiarazten da:
- Inplementatu PodSpec (edukiontziaren irudia, komandoa, atakak, ingurunea, etab.)
- ConfigMaps bolumen gisa muntatzen da edo ingurune-aldagai bihurtzen dira
- Sekretuak bolumen gisa muntatzen dira edo ingurune-aldagai bihurtzen dira
Exekutatu canary deployment edukiontziaren irudia eguneratzean:
kubectl -n test set image deployment/podinfo
podinfod=quay.io/stefanprodan/podinfo:1.4.1
Flaggerrek inplementazio bertsioa aldatu dela hautematen du eta aztertzen hasten da:
kubectl -n test describe canary/podinfo
Events:
New revision detected podinfo.test
Scaling up podinfo.test
Waiting for podinfo.test rollout to finish: 0 of 1 updated replicas are available
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Advance podinfo.test canary weight 20
Advance podinfo.test canary weight 25
Advance podinfo.test canary weight 30
Advance podinfo.test canary weight 35
Advance podinfo.test canary weight 40
Advance podinfo.test canary weight 45
Advance podinfo.test canary weight 50
Copying podinfo.test template spec to podinfo-primary.test
Waiting for podinfo-primary.test rollout to finish: 1 of 2 updated replicas are available
Promotion completed! Scaling down podinfo.test
Analisian zehar, kanariar emaitzak kontrolatu daitezke Grafana erabiliz:
Kontuan izan: inplementazioari aldaketa berriak aplikatzen bazaizkio Canary analisian zehar, Flaggerrek analisi-fasea berrabiaraziko du.
Egin zure multzoko kanariar guztien zerrenda:
watch kubectl get canaries --all-namespaces
NAMESPACE NAME STATUS WEIGHT LASTTRANSITIONTIME
test podinfo Progressing 15 2019-01-16T14:05:07Z
prod frontend Succeeded 0 2019-01-15T16:15:07Z
prod backend Failed 0 2019-01-14T17:05:07Z
Slack jakinarazpenak gaitu badituzu, mezu hauek jasoko dituzu:
Atzera itzuli automatikoa
Kanarietako analisian, HTTP 500 errore sintetikoak eta erantzun-latentzia handia sor ditzakezu Flaggerrek inplementazioa geldituko duen egiaztatzeko.
Sortu probako pod bat eta egin honako hau bertan:
kubectl -n test run tester
--image=quay.io/stefanprodan/podinfo:1.2.1
-- ./podinfo --port=9898
kubectl -n test exec -it tester-xx-xx sh
HTTP 500 erroreak sortzea:
watch curl http://podinfo-canary:9898/status/500
Atzerapena sortzea:
watch curl http://podinfo-canary:9898/delay/1
Huts egin duten egiaztapenen kopurua atalase batera iristen denean, trafikoa lehen mailako kanalera bideratzen da, canary-a zerora eskalatzen da eta inplementazioa huts gisa markatzen da.
Kanarietako erroreak eta latentzia-pikak Kuberneteseko gertaera gisa erregistratzen dira eta Flagger-ek JSON formatuan erregistratzen ditu:
kubectl -n istio-system logs deployment/flagger -f | jq .msg
Starting canary deployment for podinfo.test
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Halt podinfo.test advancement success rate 69.17% < 99%
Halt podinfo.test advancement success rate 61.39% < 99%
Halt podinfo.test advancement success rate 55.06% < 99%
Halt podinfo.test advancement success rate 47.00% < 99%
Halt podinfo.test advancement success rate 37.00% < 99%
Halt podinfo.test advancement request duration 1.515s > 500ms
Halt podinfo.test advancement request duration 1.600s > 500ms
Halt podinfo.test advancement request duration 1.915s > 500ms
Halt podinfo.test advancement request duration 2.050s > 500ms
Halt podinfo.test advancement request duration 2.515s > 500ms
Rolling back podinfo.test failed checks threshold reached 10
Canary failed! Scaling down podinfo.test
Slack jakinarazpenak gaitu badituzu, mezu bat jasoko duzu azterketa batean huts egin duten berrikuspenen gehienezko kopurua osatzeko edo iristeko epea gainditzen denean:
Ondorioz
Istio bezalako zerbitzu-sare bat Kubernetesen gainean exekutatzen baduzu, neurketa, erregistro eta erregistro automatikoak emango ditu, baina lan-kargak zabaltzea kanpoko tresnen araberakoa da oraindik. Flaggerrek hori aldatzea du helburu, Istio gaitasunak gehituz
Flagger Kubernetes-erako edozein CI/CD soluziorekin bateragarria da eta kanariar analisia erraz heda daiteke
Marker onartzen da
Flagger hobetzeko iradokizunik baduzu, bidali arazoa edo PR-a GitHub-en
Eskerrik asko
Iturria: www.habr.com