CD wurdt erkend as in bedriuwssoftwarepraktyk en is it resultaat fan in natuerlike evolúsje fan fêststelde CI-prinsipes. CD is lykwols noch frij seldsum, faaks troch de kompleksiteit fan behear en de eangst foar mislearre ynsetingen dy't de beskikberens fan systeem beynfloedzje.
Hjirûnder is in stap foar stap hantlieding foar it ynstellen en brûken fan Flagger op Google Kubernetes Engine (GKE).
It opsetten fan in Kubernetes-kluster
Jo begjinne mei it meitsjen fan in GKE-kluster mei de Istio-add-on (as jo gjin GCP-akkount hawwe, kinne jo jo oanmelde
Oanmelde by Google Cloud, meitsje in projekt, en skeakelje fakturearring foar. Ynstallearje it kommandorigelprogramma gcloud init
.
Stel standert projekt, berekkenje gebiet en sône yn (ferfange PROJECT_ID
foar jo projekt):
gcloud config set project PROJECT_ID
gcloud config set compute/region us-central1
gcloud config set compute/zone us-central1-a
Aktivearje de GKE-tsjinst en meitsje in kluster mei HPA- en Istio-tafoegings:
gcloud services enable container.googleapis.com
K8S_VERSION=$(gcloud beta container get-server-config --format=json | jq -r '.validMasterVersions[0]')
gcloud beta container clusters create istio
--cluster-version=${K8S_VERSION}
--zone=us-central1-a
--num-nodes=2
--machine-type=n1-standard-2
--disk-size=30
--enable-autorepair
--no-enable-cloud-logging
--no-enable-cloud-monitoring
--addons=HorizontalPodAutoscaling,Istio
--istio-config=auth=MTLS_PERMISSIVE
It boppesteande kommando sil in standert knooppuntpool meitsje mei twa VM's n1-standard-2
(vCPU: 2, RAM 7,5 GB, skiif: 30 GB). Ideal moatte jo Istio-komponinten isolearje fan jo workloads, mar d'r is gjin maklike manier om Istio Pods út te fieren yn in tawijd pool fan knopen. Istio-manifesten wurde as allinich lêzen beskôge en GKE sil alle wizigingen ûngedien meitsje, lykas keppeljen nei in knooppunt of losmeitsje fan in pod.
Ynstelle bewiisbrieven foar kubectl
:
gcloud container clusters get-credentials istio
Meitsje in klusterbehearderrolferbining:
kubectl create clusterrolebinding "cluster-admin-$(whoami)"
--clusterrole=cluster-admin
--user="$(gcloud config get-value core/account)"
Ynstallearje it kommandorigelark
brew install kubernetes-helm
Homebrew 2.0 is no ek beskikber foar
Meitsje in tsjinstaccount en klusterrolferbining foar Tiller:
kubectl -n kube-system create sa tiller &&
kubectl create clusterrolebinding tiller-cluster-rule
--clusterrole=cluster-admin
--serviceaccount=kube-system:tiller
Utwreidzje Tiller yn nammeromte kube-system
:
helm init --service-account tiller
Jo moatte beskôgje in gebrûk SSL tusken Helm en Tiller. Foar mear ynformaasje oer it beskermjen fan jo Helm-ynstallaasje, sjoch
Befêstigje ynstellings:
kubectl -n istio-system get svc
Nei in pear sekonden moat GCP in ekstern IP-adres tawize foar de tsjinst istio-ingressgateway
.
It konfigurearjen fan de Istio Ingress Gateway
Meitsje in statysk IP-adres mei in namme istio-gateway
mei it IP-adres fan 'e Istio-gateway:
export GATEWAY_IP=$(kubectl -n istio-system get svc/istio-ingressgateway -ojson | jq -r .status.loadBalancer.ingress[0].ip)
gcloud compute addresses create istio-gateway --addresses ${GATEWAY_IP} --region us-central1
No hawwe jo in ynternetdomein nedich en tagong ta jo DNS-registrar. Foegje twa A-records ta (ferfange example.com
nei jo domein):
istio.example.com A ${GATEWAY_IP}
*.istio.example.com A ${GATEWAY_IP}
Ferifiearje dat de DNS-jokerteken wurket:
watch host test.istio.example.com
Meitsje in generyske Istio-gateway om tsjinsten te leverjen bûten it tsjinstmesh oer HTTP:
apiVersion: networking.istio.io/v1alpha3
kind: Gateway
metadata:
name: public-gateway
namespace: istio-system
spec:
selector:
istio: ingressgateway
servers:
- port:
number: 80
name: http
protocol: HTTP
hosts:
- "*"
Bewarje de boppesteande boarne as public-gateway.yaml en tapasse it dan:
kubectl apply -f ./public-gateway.yaml
Gjin produksjesysteem moat tsjinsten leverje op it ynternet sûnder SSL. Om de Istio-yngongspoarte te befeiligjen mei cert-manager, CloudDNS en Let's Encrypt, lês asjebleaft
Flagger Ynstallaasje
De GKE Istio-tafoeging omfettet gjin Prometheus-eksimplaar dy't de Istio-telemetrytsjinst skjinmakket. Om't Flagger Istio HTTP-metriken brûkt om kanaryske analyze út te fieren, moatte jo de folgjende Prometheus-konfiguraasje ynsette, fergelykber mei dejinge dy't komt mei it offisjele Istio Helm-skema.
REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/gke/istio-prometheus.yaml
Foegje it Flagger Helm-repository ta:
helm repo add flagger [https://flagger.app](https://flagger.app/)
Flagger útwreidzje nei nammeromte istio-system
troch Slack-notifikaasjes yn te skeakeljen:
helm upgrade -i flagger flagger/flagger
--namespace=istio-system
--set metricsServer=http://prometheus.istio-system:9090
--set slack.url=https://hooks.slack.com/services/YOUR-WEBHOOK-ID
--set slack.channel=general
--set slack.user=flagger
Jo kinne Flagger yn elke nammeromte ynstallearje, salang't it kin kommunisearje mei de Istio Prometheus-tsjinst op poarte 9090.
Flagger hat in Grafana-dashboard foar kanaryske analyze. Ynstallearje Grafana yn nammeromte istio-system
:
helm upgrade -i flagger-grafana flagger/grafana
--namespace=istio-system
--set url=http://prometheus.istio-system:9090
--set user=admin
--set password=change-me
Grafana eksposearje fia in iepen poarte troch in firtuele tsjinst te meitsjen (ferfange example.com
nei jo domein):
apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
name: grafana
namespace: istio-system
spec:
hosts:
- "grafana.istio.example.com"
gateways:
- public-gateway.istio-system.svc.cluster.local
http:
- route:
- destination:
host: flagger-grafana
Bewarje de boppesteande boarne as grafana-virtual-service.yaml en tapasse it dan:
kubectl apply -f ./grafana-virtual-service.yaml
By it ferpleatsen nei http://grafana.istio.example.com
yn 'e blêder moatte jo nei de oanmeldside fan Grafana wurde rjochte.
It ynsetten fan webapplikaasjes mei Flagger
Flagger ynset Kubernetes en opsjoneel skaal út automatysk (HPA), dan makket in rige fan objekten (Kubernetes-ynset, ClusterIP tsjinsten, en Istio firtuele tsjinsten). Dizze objekten bleatstelle de applikaasje oan de tsjinst mesh en kontrôle kanaryske analyze en foarútgong.
Meitsje in testnammeromte mei Istio Sidecar-ynjeksje ynskeakele:
REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/namespaces/test.yaml
Meitsje in ynset en in pod automatysk scale-out ark:
kubectl apply -f ${REPO}/artifacts/canaries/deployment.yaml
kubectl apply -f ${REPO}/artifacts/canaries/hpa.yaml
Implementearje in testloadtsjinst om ferkear te generearjen by kanaryske analyse:
helm upgrade -i flagger-loadtester flagger/loadtester
--namepace=test
Meitsje in oanpaste kanaryske boarne (ferfange example.com
nei jo domein):
apiVersion: flagger.app/v1alpha3
kind: Canary
metadata:
name: podinfo
namespace: test
spec:
targetRef:
apiVersion: apps/v1
kind: Deployment
name: podinfo
progressDeadlineSeconds: 60
autoscalerRef:
apiVersion: autoscaling/v2beta1
kind: HorizontalPodAutoscaler
name: podinfo
service:
port: 9898
gateways:
- public-gateway.istio-system.svc.cluster.local
hosts:
- app.istio.example.com
canaryAnalysis:
interval: 30s
threshold: 10
maxWeight: 50
stepWeight: 5
metrics:
- name: istio_requests_total
threshold: 99
interval: 30s
- name: istio_request_duration_seconds_bucket
threshold: 500
interval: 30s
webhooks:
- name: load-test
url: http://flagger-loadtester.test/
timeout: 5s
metadata:
cmd: "hey -z 1m -q 10 -c 2 http://podinfo.test:9898/"
Bewarje de boppesteande boarne as podinfo-canary.yaml en tapasse it dan:
kubectl apply -f ./podinfo-canary.yaml
De boppesteande analyse, as suksesfol, sil fiif minuten rinne, troch elke heale minút HTTP-metriken te kontrolearjen. Jo kinne de minimale tiid bepale dy't nedich is om in kanaryske ynset te falidearjen en te befoarderjen mei de folgjende formule: interval * (maxWeight / stepWeight)
. Kanaryske CRD-fjilden binne dokumintearre
Nei in pear sekonden sil Flagger kanaryske objekten meitsje:
# applied
deployment.apps/podinfo
horizontalpodautoscaler.autoscaling/podinfo
canary.flagger.app/podinfo
# generated
deployment.apps/podinfo-primary
horizontalpodautoscaler.autoscaling/podinfo-primary
service/podinfo
service/podinfo-canary
service/podinfo-primary
virtualservice.networking.istio.io/podinfo
Iepenje in browser en gean nei app.istio.example.com
, jo moatte it ferzjenûmer sjen
Automatyske kanaryske analyze en promoasje
Flagger implementeart in kontrôlelus dy't it ferkear stadichoan ferpleatst nei de kanaryske by it mjitten fan wichtige prestaasjesmetriken lykas HTTP-fersykssuksesrate, gemiddelde oanfraachdoer, en podsûnens. Op grûn fan 'e KPI-analyse wurdt de kanaryske befoardere of ûnderbrutsen, en de resultaten fan' e analyse wurde publisearre oan Slack.
Kanaryske ynset wurdt aktivearre as ien fan 'e folgjende objekten feroaret:
- Ynsette PodSpec (containerôfbylding, kommando, havens, env, ensfh.)
- ConfigMaps wurde monteard as folumes of yn kaart brocht oan omjouwingsfariabelen
- Geheimen wurde monteard as folumes of omboud ta omjouwingsfariabelen
Kanaryske ynset útfiere by it bywurkjen fan in kontenerôfbylding:
kubectl -n test set image deployment/podinfo
podinfod=quay.io/stefanprodan/podinfo:1.4.1
Flagger detektearret dat de ynsetferzje feroare is en begjint it te parsearjen:
kubectl -n test describe canary/podinfo
Events:
New revision detected podinfo.test
Scaling up podinfo.test
Waiting for podinfo.test rollout to finish: 0 of 1 updated replicas are available
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Advance podinfo.test canary weight 20
Advance podinfo.test canary weight 25
Advance podinfo.test canary weight 30
Advance podinfo.test canary weight 35
Advance podinfo.test canary weight 40
Advance podinfo.test canary weight 45
Advance podinfo.test canary weight 50
Copying podinfo.test template spec to podinfo-primary.test
Waiting for podinfo-primary.test rollout to finish: 1 of 2 updated replicas are available
Promotion completed! Scaling down podinfo.test
Tidens analyse kinne kanaryske resultaten wurde folge mei Grafana:
V r notysje op dat as nije feroarings wurde tapast op in ynset ûnder kanaryske analyze, dan sil Flagger de analyse faze opnij starte.
Meitsje in list fan alle kanaries yn jo kluster:
watch kubectl get canaries --all-namespaces
NAMESPACE NAME STATUS WEIGHT LASTTRANSITIONTIME
test podinfo Progressing 15 2019-01-16T14:05:07Z
prod frontend Succeeded 0 2019-01-15T16:15:07Z
prod backend Failed 0 2019-01-14T17:05:07Z
As jo Slack-notifikaasjes ynskeakele hawwe, krije jo de folgjende berjochten:
Automatysk weromdraaien
Tidens kanaryske analyse kinne jo syntetyske HTTP 500-flaters generearje en hege antwurdlatens om te sjen oft Flagger de ynset sil stopje.
Meitsje in testpod en doch it folgjende dêryn:
kubectl -n test run tester
--image=quay.io/stefanprodan/podinfo:1.2.1
-- ./podinfo --port=9898
kubectl -n test exec -it tester-xx-xx sh
HTTP 500 flaters generearje:
watch curl http://podinfo-canary:9898/status/500
Generaasje fertraging:
watch curl http://podinfo-canary:9898/delay/1
As it oantal mislearre kontrôles de drompel berikt, wurdt it ferkear weromstjoerd nei it primêre kanaal, de kanaryske wurdt skalearre nei nul, en de ynset wurdt markearre as mislearre.
Kanaryske flaters en latency-spikes wurde oanmeld as Kubernetes-eveneminten en oanmeld troch Flagger yn JSON-formaat:
kubectl -n istio-system logs deployment/flagger -f | jq .msg
Starting canary deployment for podinfo.test
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Halt podinfo.test advancement success rate 69.17% < 99%
Halt podinfo.test advancement success rate 61.39% < 99%
Halt podinfo.test advancement success rate 55.06% < 99%
Halt podinfo.test advancement success rate 47.00% < 99%
Halt podinfo.test advancement success rate 37.00% < 99%
Halt podinfo.test advancement request duration 1.515s > 500ms
Halt podinfo.test advancement request duration 1.600s > 500ms
Halt podinfo.test advancement request duration 1.915s > 500ms
Halt podinfo.test advancement request duration 2.050s > 500ms
Halt podinfo.test advancement request duration 2.515s > 500ms
Rolling back podinfo.test failed checks threshold reached 10
Canary failed! Scaling down podinfo.test
As jo Slack-notifikaasjes hawwe ynskeakele, sille jo in berjocht krije as de deadline wurdt oerrûn of it maksimum oantal mislearre kontrôles yn 'e analyse wurdt berikt:
Yn ôfsluting
It útfieren fan in tsjinstmesh lykas Istio neist Kubernetes sil automatyske metriken, logs en protokollen leverje, mar de ynset fan wurkdruk hinget noch ôf fan eksterne ark. Flagger is fan doel dit te feroarjen troch it tafoegjen fan Istio-mooglikheden
Flagger is kompatibel mei elke Kubernetes CI / CD-oplossing, en kanaryske analyze kin maklik útwreide wurde mei
Flagger stipe
As jo suggestjes hawwe om Flagger te ferbetterjen, stjoer dan in probleem of PR yn op GitHub by
Спасибо
Boarne: www.habr.com