CD er viðurkennt sem hugbúnaðarframkvæmd fyrirtækja og er afleiðing náttúrulegrar þróunar á viðurkenndum CI reglum. Hins vegar er geisladiskur enn frekar sjaldgæfur, ef til vill vegna þess hve stjórnun er flókin og ótta við að misheppnuð uppsetning hafi áhrif á aðgengi kerfisins.
Hér að neðan er skref fyrir skref leiðbeiningar um uppsetningu og notkun Flagger á Google Kubernetes Engine (GKE).
Að setja upp Kubernetes þyrping
Þú byrjar á því að búa til GKE þyrping með Istio viðbótinni (ef þú ert ekki með GCP reikning geturðu skráð þig
Skráðu þig inn á Google Cloud, búðu til verkefni og virkjaðu innheimtu fyrir það. Settu upp skipanalínuforritið gcloud init
.
Stilltu sjálfgefið verkefni, reikna svæði og svæði (skipta um PROJECT_ID
fyrir verkefnið þitt):
gcloud config set project PROJECT_ID
gcloud config set compute/region us-central1
gcloud config set compute/zone us-central1-a
Virkjaðu GKE þjónustuna og búðu til þyrping með HPA og Istio viðbótum:
gcloud services enable container.googleapis.com
K8S_VERSION=$(gcloud beta container get-server-config --format=json | jq -r '.validMasterVersions[0]')
gcloud beta container clusters create istio
--cluster-version=${K8S_VERSION}
--zone=us-central1-a
--num-nodes=2
--machine-type=n1-standard-2
--disk-size=30
--enable-autorepair
--no-enable-cloud-logging
--no-enable-cloud-monitoring
--addons=HorizontalPodAutoscaling,Istio
--istio-config=auth=MTLS_PERMISSIVE
Ofangreind skipun mun búa til sjálfgefna hnútapott sem inniheldur tvo VM n1-standard-2
(VCPU: 2, vinnsluminni 7,5 GB, diskur: 30 GB). Helst ættirðu að einangra Istio íhluti frá vinnuálagi þínu, en það er engin auðveld leið til að keyra Istio Pods í sérstökum hópi hnúta. Istio upplýsingaskrár eru álitnar skrifvarandi og GKE mun afturkalla allar breytingar, svo sem að tengja við hnút eða aftengjast frá belg.
Settu upp skilríki fyrir kubectl
:
gcloud container clusters get-credentials istio
Búðu til hlutverkabindingu klasastjórnanda:
kubectl create clusterrolebinding "cluster-admin-$(whoami)"
--clusterrole=cluster-admin
--user="$(gcloud config get-value core/account)"
Settu upp skipanalínutólið
brew install kubernetes-helm
Homebrew 2.0 er nú einnig fáanlegt fyrir
Búðu til þjónustureikning og klasahlutverkabindingu fyrir Tiller:
kubectl -n kube-system create sa tiller &&
kubectl create clusterrolebinding tiller-cluster-rule
--clusterrole=cluster-admin
--serviceaccount=kube-system:tiller
Stækkaðu Tiller í nafnarými kube-system
:
helm init --service-account tiller
Þú ættir að íhuga að nota SSL á milli Helm og Tiller. Fyrir frekari upplýsingar um að vernda Helm uppsetningu þína, sjá
Staðfestu stillingar:
kubectl -n istio-system get svc
Eftir nokkrar sekúndur ætti GCP að úthluta ytri IP tölu fyrir þjónustuna istio-ingressgateway
.
Stillir Istio Ingress Gateway
Búðu til kyrrstæða IP tölu með nafni istio-gateway
með því að nota IP tölu Istio gáttarinnar:
export GATEWAY_IP=$(kubectl -n istio-system get svc/istio-ingressgateway -ojson | jq -r .status.loadBalancer.ingress[0].ip)
gcloud compute addresses create istio-gateway --addresses ${GATEWAY_IP} --region us-central1
Nú þarftu internetlén og aðgang að DNS skrásetjaranum þínum. Bættu við tveimur A færslum (skipta um example.com
á lénið þitt):
istio.example.com A ${GATEWAY_IP}
*.istio.example.com A ${GATEWAY_IP}
Staðfestu að DNS jokertáknið virki:
watch host test.istio.example.com
Búðu til almenna Istio gátt til að veita þjónustu utan þjónustunetsins yfir HTTP:
apiVersion: networking.istio.io/v1alpha3
kind: Gateway
metadata:
name: public-gateway
namespace: istio-system
spec:
selector:
istio: ingressgateway
servers:
- port:
number: 80
name: http
protocol: HTTP
hosts:
- "*"
Vistaðu ofangreint tilfang sem public-gateway.yaml og notaðu það síðan:
kubectl apply -f ./public-gateway.yaml
Ekkert framleiðslukerfi ætti að veita þjónustu á netinu án SSL. Til að tryggja Istio inngöngugáttina með cert-manager, CloudDNS og Let's Encrypt, vinsamlegast lestu
Uppsetning Flagger
GKE Istio viðbótin inniheldur ekki Prometheus tilvik sem hreinsar upp Istio fjarmælingaþjónustuna. Vegna þess að Flagger notar Istio HTTP mælikvarða til að framkvæma kanarígreiningu þarftu að nota eftirfarandi Prometheus stillingar, svipaða þeirri sem fylgir opinberu Istio Helm stefinu.
REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/gke/istio-prometheus.yaml
Bættu við Flagger Helm geymslunni:
helm repo add flagger [https://flagger.app](https://flagger.app/)
Stækkaðu Flagger í nafnrými istio-system
með því að virkja Slack tilkynningar:
helm upgrade -i flagger flagger/flagger
--namespace=istio-system
--set metricsServer=http://prometheus.istio-system:9090
--set slack.url=https://hooks.slack.com/services/YOUR-WEBHOOK-ID
--set slack.channel=general
--set slack.user=flagger
Þú getur sett upp Flagger í hvaða nafnrými sem er svo framarlega sem það getur átt samskipti við Istio Prometheus þjónustuna á höfn 9090.
Flagger er með Grafana mælaborði fyrir greiningu á kanarífuglum. Settu upp Grafana í nafnrými istio-system
:
helm upgrade -i flagger-grafana flagger/grafana
--namespace=istio-system
--set url=http://prometheus.istio-system:9090
--set user=admin
--set password=change-me
Sýndu Grafana í gegnum opna gátt með því að búa til sýndarþjónustu (skipta um example.com
á lénið þitt):
apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
name: grafana
namespace: istio-system
spec:
hosts:
- "grafana.istio.example.com"
gateways:
- public-gateway.istio-system.svc.cluster.local
http:
- route:
- destination:
host: flagger-grafana
Vistaðu ofangreind tilföng sem grafana-virtual-service.yaml og notaðu það síðan:
kubectl apply -f ./grafana-virtual-service.yaml
Þegar flutt er til http://grafana.istio.example.com
í vafranum ætti að vera vísað á innskráningarsíðu Grafana.
Dreifing vefforrita með Flagger
Flagger setur Kubernetes í notkun og stækkar mögulega sjálfkrafa (HPA) og býr síðan til röð af hlutum (Kubernetes dreifing, ClusterIP þjónusta og Istio sýndarþjónusta). Þessir hlutir afhjúpa forritið fyrir þjónustunetinu og stjórna greiningu og framvindu kanarífugla.
Búðu til prófunarnafnrými með Istio Sidecar innspýting virkt:
REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/namespaces/test.yaml
Búðu til dreifingu og sjálfvirkt tól til að minnka skala:
kubectl apply -f ${REPO}/artifacts/canaries/deployment.yaml
kubectl apply -f ${REPO}/artifacts/canaries/hpa.yaml
Settu upp prufuhleðsluþjónustu til að búa til umferð við kanarígreiningu:
helm upgrade -i flagger-loadtester flagger/loadtester
--namepace=test
Búðu til sérsniðna kanarí auðlind (skipta um example.com
á lénið þitt):
apiVersion: flagger.app/v1alpha3
kind: Canary
metadata:
name: podinfo
namespace: test
spec:
targetRef:
apiVersion: apps/v1
kind: Deployment
name: podinfo
progressDeadlineSeconds: 60
autoscalerRef:
apiVersion: autoscaling/v2beta1
kind: HorizontalPodAutoscaler
name: podinfo
service:
port: 9898
gateways:
- public-gateway.istio-system.svc.cluster.local
hosts:
- app.istio.example.com
canaryAnalysis:
interval: 30s
threshold: 10
maxWeight: 50
stepWeight: 5
metrics:
- name: istio_requests_total
threshold: 99
interval: 30s
- name: istio_request_duration_seconds_bucket
threshold: 500
interval: 30s
webhooks:
- name: load-test
url: http://flagger-loadtester.test/
timeout: 5s
metadata:
cmd: "hey -z 1m -q 10 -c 2 http://podinfo.test:9898/"
Vistaðu ofangreind tilföng sem podinfo-canary.yaml og notaðu það síðan:
kubectl apply -f ./podinfo-canary.yaml
Ofangreind greining, ef vel tekst til, mun keyra í fimm mínútur og athuga HTTP mælingar á hálfrar mínútu fresti. Þú getur ákvarðað lágmarkstímann sem þarf til að staðfesta og kynna uppsetningu kanarífugla með því að nota eftirfarandi formúlu: interval * (maxWeight / stepWeight)
. Canary CRD reitir eru skjalfestir
Eftir nokkrar sekúndur mun Flagger búa til kanaríhluti:
# applied
deployment.apps/podinfo
horizontalpodautoscaler.autoscaling/podinfo
canary.flagger.app/podinfo
# generated
deployment.apps/podinfo-primary
horizontalpodautoscaler.autoscaling/podinfo-primary
service/podinfo
service/podinfo-canary
service/podinfo-primary
virtualservice.networking.istio.io/podinfo
Opnaðu vafra og farðu í app.istio.example.com
, þú ættir að sjá útgáfunúmerið
Sjálfvirk kanarí greining og kynning
Flagger útfærir stjórnlykkju sem færir umferð smám saman til kanarífuglsins á meðan hann mælir lykilframmistöðumælikvarða eins og árangurshlutfall HTTP beiðni, meðallengd beiðna og heilsu fræbelgs. Byggt á KPI greiningu er kanarífuglinn kynntur eða truflaður og niðurstöður greiningarinnar birtar til Slack.
Kanarídreifing er ræst þegar einn af eftirfarandi hlutum breytist:
- Settu upp PodSpec (ílátsmynd, skipun, höfn, env osfrv.)
- ConfigMaps eru sett upp sem bindi eða varpað á umhverfisbreytur
- Leyndarmál eru sett upp sem bindi eða breytt í umhverfisbreytur
Keyra Canary dreifingu þegar gámamynd er uppfærð:
kubectl -n test set image deployment/podinfo
podinfod=quay.io/stefanprodan/podinfo:1.4.1
Flagger skynjar að dreifingarútgáfan hefur breyst og byrjar að þátta hana:
kubectl -n test describe canary/podinfo
Events:
New revision detected podinfo.test
Scaling up podinfo.test
Waiting for podinfo.test rollout to finish: 0 of 1 updated replicas are available
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Advance podinfo.test canary weight 20
Advance podinfo.test canary weight 25
Advance podinfo.test canary weight 30
Advance podinfo.test canary weight 35
Advance podinfo.test canary weight 40
Advance podinfo.test canary weight 45
Advance podinfo.test canary weight 50
Copying podinfo.test template spec to podinfo-primary.test
Waiting for podinfo-primary.test rollout to finish: 1 of 2 updated replicas are available
Promotion completed! Scaling down podinfo.test
Við greiningu er hægt að rekja niðurstöður kanarífugla með Grafana:
Vinsamlegast athugaðu að ef nýjum breytingum er beitt á dreifingu við kanarígreiningu mun Flagger endurræsa greiningarstigið.
Búðu til lista yfir alla kanarífugla í þyrpingunni þinni:
watch kubectl get canaries --all-namespaces
NAMESPACE NAME STATUS WEIGHT LASTTRANSITIONTIME
test podinfo Progressing 15 2019-01-16T14:05:07Z
prod frontend Succeeded 0 2019-01-15T16:15:07Z
prod backend Failed 0 2019-01-14T17:05:07Z
Ef þú hefur virkjað Slack tilkynningar færðu eftirfarandi skilaboð:
Sjálfvirk afturköllun
Við greiningu á kanarífugli geturðu búið til tilbúnar HTTP 500 villur og mikla svarleynd til að sjá hvort Flagger stöðvi dreifinguna.
Búðu til test pod og gerðu eftirfarandi í honum:
kubectl -n test run tester
--image=quay.io/stefanprodan/podinfo:1.2.1
-- ./podinfo --port=9898
kubectl -n test exec -it tester-xx-xx sh
Búa til HTTP 500 villur:
watch curl http://podinfo-canary:9898/status/500
Töf kynslóð:
watch curl http://podinfo-canary:9898/delay/1
Þegar fjöldi misheppnaðra athugana nær þröskuldinum er umferðinni beint aftur á aðalrásina, kanarífuglinn er færður í núll og dreifingin er merkt sem mistókst.
Kanarívillur og töf toppar eru skráðir sem Kubernetes atburðir og skráðir af Flagger á JSON sniði:
kubectl -n istio-system logs deployment/flagger -f | jq .msg
Starting canary deployment for podinfo.test
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Halt podinfo.test advancement success rate 69.17% < 99%
Halt podinfo.test advancement success rate 61.39% < 99%
Halt podinfo.test advancement success rate 55.06% < 99%
Halt podinfo.test advancement success rate 47.00% < 99%
Halt podinfo.test advancement success rate 37.00% < 99%
Halt podinfo.test advancement request duration 1.515s > 500ms
Halt podinfo.test advancement request duration 1.600s > 500ms
Halt podinfo.test advancement request duration 1.915s > 500ms
Halt podinfo.test advancement request duration 2.050s > 500ms
Halt podinfo.test advancement request duration 2.515s > 500ms
Rolling back podinfo.test failed checks threshold reached 10
Canary failed! Scaling down podinfo.test
Ef þú hefur virkjað Slack tilkynningar færðu skilaboð þegar farið er yfir frestinn eða hámarksfjölda misheppnaðra athugana í greiningunni er náð:
Að lokum
Að keyra þjónustunet eins og Istio auk Kubernetes mun veita sjálfvirkar mælingar, annála og samskiptareglur, en dreifing vinnuálags fer enn eftir ytri verkfærum. Flagger stefnir að því að breyta þessu með því að bæta við Istio getu
Flagger er samhæft við hvaða Kubernetes CI/CD lausn sem er og auðvelt er að útvíkka kanarífuglagreiningu með
Flagger studdur
Ef þú hefur tillögur til að bæta Flagger, vinsamlegast sendu inn mál eða PR á GitHub á
Takk
Heimild: www.habr.com