CD tiek atzÄ«ts par uzÅÄmuma programmatÅ«ras praksi, un tas ir iedibinÄto CI principu dabiskas attÄ«stÄ«bas rezultÄts. TomÄr CD joprojÄm ir diezgan reti sastopams, iespÄjams, pÄrvaldÄ«bas sarežģītÄ«bas un bailes no neveiksmÄ«gas izvietoÅ”anas, kas ietekmÄ sistÄmas pieejamÄ«bu, dÄļ.
TÄlÄk ir sniegts soli pa solim ceļvedis, lai iestatÄ«tu un izmantotu atzÄ«mÄtÄju pakalpojumÄ Google Kubernetes Engine (GKE).
Kubernetes klastera iestatīŔana
Vispirms izveidojiet GKE klasteru ar Istio papildinÄjumu (ja jums nav GCP konta, varat reÄ£istrÄties
Pierakstieties pakalpojumÄ Google Cloud, izveidojiet projektu un iespÄjojiet tÄ norÄÄ·inus. InstalÄjiet komandrindas utilÄ«tu gcloud init
.
Iestatiet noklusÄjuma projektu, aprÄÄ·ina apgabalu un zonu (aizstÄt PROJECT_ID
jūsu projektam):
gcloud config set project PROJECT_ID
gcloud config set compute/region us-central1
gcloud config set compute/zone us-central1-a
IespÄjojiet GKE pakalpojumu un izveidojiet kopu ar HPA un Istio papildinÄjumiem:
gcloud services enable container.googleapis.com
K8S_VERSION=$(gcloud beta container get-server-config --format=json | jq -r '.validMasterVersions[0]')
gcloud beta container clusters create istio
--cluster-version=${K8S_VERSION}
--zone=us-central1-a
--num-nodes=2
--machine-type=n1-standard-2
--disk-size=30
--enable-autorepair
--no-enable-cloud-logging
--no-enable-cloud-monitoring
--addons=HorizontalPodAutoscaling,Istio
--istio-config=auth=MTLS_PERMISSIVE
IepriekÅ” minÄtÄ komanda izveidos noklusÄjuma mezglu kopu, kurÄ ietilpst divas virtuÄlÄs maŔīnas n1-standard-2
(vCPU: 2, RAM 7,5 GB, disks: 30 GB). IdeÄlÄ gadÄ«jumÄ jums vajadzÄtu izolÄt Istio komponentus no darba slodzÄm, taÄu nav vienkÄrÅ”a veida, kÄ palaist Istio Pods speciÄlÄ mezglu pÅ«lÄ. Istio manifesti tiek uzskatÄ«ti par tikai lasÄmiem, un GKE atsauks visas izmaiÅas, piemÄram, saistÄ«Å”anu ar mezglu vai atdalÄ«Å”anu no poda.
Iestatiet akreditÄcijas datus kubectl
:
gcloud container clusters get-credentials istio
Izveidojiet klastera administratora lomu saistīŔanu:
kubectl create clusterrolebinding "cluster-admin-$(whoami)"
--clusterrole=cluster-admin
--user="$(gcloud config get-value core/account)"
InstalÄjiet komandrindas rÄ«ku
brew install kubernetes-helm
Homebrew 2.0 tagad ir pieejams arī
Izveidojiet pakalpojuma kontu un klastera lomu saistīŔanu Tiller:
kubectl -n kube-system create sa tiller &&
kubectl create clusterrolebinding tiller-cluster-rule
--clusterrole=cluster-admin
--serviceaccount=kube-system:tiller
NosaukumvietÄ izvÄrsiet Tiller kube-system
:
helm init --service-account tiller
Apsveriet iespÄju izmantot SSL starp Helm un Tiller. PapildinformÄciju par Helm instalÄcijas aizsardzÄ«bu skatiet sadaļÄ
Apstipriniet iestatījumus:
kubectl -n istio-system get svc
PÄc dažÄm sekundÄm GCP pakalpojumam ir jÄpieŔķir ÄrÄja IP adrese istio-ingressgateway
.
Istio ieejas vÄrtejas konfigurÄÅ”ana
Izveidojiet statisku IP adresi ar nosaukumu istio-gateway
izmantojot Istio vÄrtejas IP adresi:
export GATEWAY_IP=$(kubectl -n istio-system get svc/istio-ingressgateway -ojson | jq -r .status.loadBalancer.ingress[0].ip)
gcloud compute addresses create istio-gateway --addresses ${GATEWAY_IP} --region us-central1
Tagad jums ir nepiecieÅ”ams interneta domÄns un piekļuve jÅ«su DNS reÄ£istratoram. Pievienojiet divus A ierakstus (aizstÄt example.com
uz jÅ«su domÄnu):
istio.example.com A ${GATEWAY_IP}
*.istio.example.com A ${GATEWAY_IP}
PÄrbaudiet, vai DNS aizstÄjÄjzÄ«me darbojas:
watch host test.istio.example.com
Izveidojiet vispÄrÄ«gu Istio vÄrteju, lai nodroÅ”inÄtu pakalpojumus Ärpus pakalpojuma tÄ«kla, izmantojot HTTP:
apiVersion: networking.istio.io/v1alpha3
kind: Gateway
metadata:
name: public-gateway
namespace: istio-system
spec:
selector:
istio: ingressgateway
servers:
- port:
number: 80
name: http
protocol: HTTP
hosts:
- "*"
SaglabÄjiet iepriekÅ” minÄto resursu kÄ public-gateway.yaml un pÄc tam lietojiet to:
kubectl apply -f ./public-gateway.yaml
Neviena ražoÅ”anas sistÄma nedrÄ«kst nodroÅ”inÄt pakalpojumus internetÄ bez SSL. Lai nodroÅ”inÄtu Istio ieejas vÄrteju ar sertifikÄtu pÄrvaldnieku, CloudDNS un Let's Encrypt, lÅ«dzu, izlasiet
AtzÄ«mÄtÄja uzstÄdÄ«Å”ana
GKE Istio papildinÄjums neietver Prometheus gadÄ«jumu, kas attÄ«ra Istio telemetrijas pakalpojumu. TÄ kÄ atzÄ«mÄtÄjs izmanto Istio HTTP metriku, lai veiktu kanÄriju analÄ«zi, jums ir jÄizvieto Å”Äda Prometheus konfigurÄcija, kas ir lÄ«dzÄ«ga tai, kas tiek piegÄdÄta oficiÄlajÄ Istio Helm shÄmÄ.
REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/gke/istio-prometheus.yaml
Pievienojiet atzÄ«mÄtÄja Helm repozitoriju:
helm repo add flagger [https://flagger.app](https://flagger.app/)
IzvÄrsiet AtzÄ«mÄtÄjs lÄ«dz nosaukumvietai istio-system
iespÄjojot Slack paziÅojumus:
helm upgrade -i flagger flagger/flagger
--namespace=istio-system
--set metricsServer=http://prometheus.istio-system:9090
--set slack.url=https://hooks.slack.com/services/YOUR-WEBHOOK-ID
--set slack.channel=general
--set slack.user=flagger
JÅ«s varat instalÄt Flagger jebkurÄ nosaukumvietÄ, ja vien tas var sazinÄties ar pakalpojumu Istio Prometheus portÄ 9090.
AtzÄ«mÄtÄjam ir Grafana informÄcijas panelis kanÄrijputnu analÄ«zei. InstalÄjiet Grafana nosaukumvietÄ istio-system
:
helm upgrade -i flagger-grafana flagger/grafana
--namespace=istio-system
--set url=http://prometheus.istio-system:9090
--set user=admin
--set password=change-me
AtklÄjiet Grafana, izmantojot atvÄrtu vÄrteju, izveidojot virtuÄlu pakalpojumu (aizstÄt example.com
uz jÅ«su domÄnu):
apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
name: grafana
namespace: istio-system
spec:
hosts:
- "grafana.istio.example.com"
gateways:
- public-gateway.istio-system.svc.cluster.local
http:
- route:
- destination:
host: flagger-grafana
SaglabÄjiet iepriekÅ” minÄto resursu kÄ grafana-virtual-service.yaml un pÄc tam lietojiet to:
kubectl apply -f ./grafana-virtual-service.yaml
PÄrceļoties uz http://grafana.istio.example.com
pÄrlÅ«kprogrammÄ jums jÄnovirza uz Grafana pieteikÅ”anÄs lapu.
TÄ«mekļa lietojumprogrammu izvietoÅ”ana, izmantojot atzÄ«mÄtÄju
AtzÄ«mÄtÄjs izvieto Kubernetes un pÄc izvÄles automÄtiski mÄrogo (HPA), pÄc tam izveido objektu sÄriju (Kubernetes izvietoÅ”ana, ClusterIP pakalpojumi un Istio virtuÄlie pakalpojumi). Å ie objekti pakļauj lietojumprogrammu pakalpojumu tÄ«klam un kontrolÄ kanÄriju analÄ«zi un progresu.
Izveidojiet testa nosaukumvietu ar iespÄjotu Istio Sidecar injekciju:
REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/namespaces/test.yaml
Izveidojiet izvietoÅ”anas un aplikÄcijas automÄtiskÄs mÄrogoÅ”anas rÄ«ku:
kubectl apply -f ${REPO}/artifacts/canaries/deployment.yaml
kubectl apply -f ${REPO}/artifacts/canaries/hpa.yaml
Izvietojiet testa slodzes pakalpojumu, lai kanÄriju analÄ«zes laikÄ izveidotu trafiku:
helm upgrade -i flagger-loadtester flagger/loadtester
--namepace=test
Izveidojiet pielÄgotu kanÄrijputnu resursu (aizstÄt example.com
uz jÅ«su domÄnu):
apiVersion: flagger.app/v1alpha3
kind: Canary
metadata:
name: podinfo
namespace: test
spec:
targetRef:
apiVersion: apps/v1
kind: Deployment
name: podinfo
progressDeadlineSeconds: 60
autoscalerRef:
apiVersion: autoscaling/v2beta1
kind: HorizontalPodAutoscaler
name: podinfo
service:
port: 9898
gateways:
- public-gateway.istio-system.svc.cluster.local
hosts:
- app.istio.example.com
canaryAnalysis:
interval: 30s
threshold: 10
maxWeight: 50
stepWeight: 5
metrics:
- name: istio_requests_total
threshold: 99
interval: 30s
- name: istio_request_duration_seconds_bucket
threshold: 500
interval: 30s
webhooks:
- name: load-test
url: http://flagger-loadtester.test/
timeout: 5s
metadata:
cmd: "hey -z 1m -q 10 -c 2 http://podinfo.test:9898/"
SaglabÄjiet iepriekÅ” minÄto resursu kÄ podinfo-canary.yaml un pÄc tam lietojiet to:
kubectl apply -f ./podinfo-canary.yaml
Ja iepriekÅ” minÄtÄ analÄ«ze bÅ«s veiksmÄ«ga, tÄ darbosies piecas minÅ«tes, pÄrbaudot HTTP metriku ik pÄc pusminÅ«tes. Varat noteikt minimÄlo laiku, kas nepiecieÅ”ams, lai apstiprinÄtu un veicinÄtu kanÄrijputnu izvietoÅ”anu, izmantojot Å”Ädu formulu: interval * (maxWeight / stepWeight)
. KanÄriju CRD lauki ir dokumentÄti
PÄc dažÄm sekundÄm atzÄ«mÄtÄjs izveidos kanÄriju objektus:
# applied
deployment.apps/podinfo
horizontalpodautoscaler.autoscaling/podinfo
canary.flagger.app/podinfo
# generated
deployment.apps/podinfo-primary
horizontalpodautoscaler.autoscaling/podinfo-primary
service/podinfo
service/podinfo-canary
service/podinfo-primary
virtualservice.networking.istio.io/podinfo
Atveriet pÄrlÅ«kprogrammu un dodieties uz app.istio.example.com
, jums vajadzÄtu redzÄt versijas numuru
AutomÄtiska kanÄriju analÄ«ze un veicinÄÅ”ana
AtzÄ«mÄtÄjs ievieÅ” vadÄ«bas cilpu, kas pakÄpeniski pÄrvieto datplÅ«smu uz KanÄriju, vienlaikus mÄrot galvenos veiktspÄjas rÄdÄ«tÄjus, piemÄram, HTTP pieprasÄ«juma panÄkumu lÄ«meni, vidÄjo pieprasÄ«juma ilgumu un aplikuma stÄvokli. Pamatojoties uz KPI analÄ«zi, kanÄrijputniÅÅ” tiek paaugstinÄts vai pÄrtraukts, un analÄ«zes rezultÄti tiek publicÄti Slack.
KanÄriju izvietoÅ”ana tiek aktivizÄta, kad mainÄs kÄds no Å”iem objektiem:
- Izvietot PodSpec (konteinera attÄlu, komandu, portus, env utt.)
- ConfigMaps tiek montÄtas kÄ sÄjumi vai kartÄtas ar vides mainÄ«gajiem
- NoslÄpumi tiek uzstÄdÄ«ti kÄ sÄjumi vai pÄrveidoti par vides mainÄ«gajiem
Atjauninot konteinera attÄlu, palaist canary deploy:
kubectl -n test set image deployment/podinfo
podinfod=quay.io/stefanprodan/podinfo:1.4.1
AtzÄ«mÄtÄjs konstatÄ, ka izvietoÅ”anas versija ir mainÄ«jusies, un sÄk tÄs parsÄÅ”anu:
kubectl -n test describe canary/podinfo
Events:
New revision detected podinfo.test
Scaling up podinfo.test
Waiting for podinfo.test rollout to finish: 0 of 1 updated replicas are available
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Advance podinfo.test canary weight 20
Advance podinfo.test canary weight 25
Advance podinfo.test canary weight 30
Advance podinfo.test canary weight 35
Advance podinfo.test canary weight 40
Advance podinfo.test canary weight 45
Advance podinfo.test canary weight 50
Copying podinfo.test template spec to podinfo-primary.test
Waiting for podinfo-primary.test rollout to finish: 1 of 2 updated replicas are available
Promotion completed! Scaling down podinfo.test
AnalÄ«zes laikÄ kanÄrijputniÅu rezultÄtus var izsekot, izmantojot Grafana:
LÅ«dzu, Åemiet vÄrÄ: ja kanÄrijas analÄ«zes laikÄ izvietoÅ”anai tiek piemÄrotas jaunas izmaiÅas, atzÄ«mÄtÄjs atsÄks analÄ«zes fÄzi.
Izveidojiet visu jÅ«su klastera kanÄrijputnu sarakstu:
watch kubectl get canaries --all-namespaces
NAMESPACE NAME STATUS WEIGHT LASTTRANSITIONTIME
test podinfo Progressing 15 2019-01-16T14:05:07Z
prod frontend Succeeded 0 2019-01-15T16:15:07Z
prod backend Failed 0 2019-01-14T17:05:07Z
Ja esat iespÄjojis Slack paziÅojumus, jÅ«s saÅemsit Å”Ädus ziÅojumus:
AutomÄtiska atgrieÅ”ana
KanÄriju analÄ«zes laikÄ varat Ä£enerÄt sintÄtiskas HTTP 500 kļūdas un lielu atbildes latentumu, lai noskaidrotu, vai atzÄ«mÄtÄjs apturÄs izvietoÅ”anu.
Izveidojiet testa bloku un veiciet tajÄ tÄlÄk norÄdÄ«tÄs darbÄ«bas.
kubectl -n test run tester
--image=quay.io/stefanprodan/podinfo:1.2.1
-- ./podinfo --port=9898
kubectl -n test exec -it tester-xx-xx sh
HTTP 500 kļūdu Ä£enerÄÅ”ana:
watch curl http://podinfo-canary:9898/status/500
Aizkaves Ä£enerÄÅ”ana:
watch curl http://podinfo-canary:9898/delay/1
Kad nesekmÄ«go pÄrbaužu skaits sasniedz slieksni, satiksme tiek novirzÄ«ta atpakaļ uz primÄro kanÄlu, kanÄrijputniÅÅ” tiek mÄrogots lÄ«dz nullei un izvietoÅ”ana tiek atzÄ«mÄta kÄ neizdevusies.
KanÄriju kļūdas un latentuma pieaugumi tiek reÄ£istrÄti kÄ Kubernetes notikumi, un atzÄ«mÄtÄjs reÄ£istrÄ JSON formÄtÄ:
kubectl -n istio-system logs deployment/flagger -f | jq .msg
Starting canary deployment for podinfo.test
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Halt podinfo.test advancement success rate 69.17% < 99%
Halt podinfo.test advancement success rate 61.39% < 99%
Halt podinfo.test advancement success rate 55.06% < 99%
Halt podinfo.test advancement success rate 47.00% < 99%
Halt podinfo.test advancement success rate 37.00% < 99%
Halt podinfo.test advancement request duration 1.515s > 500ms
Halt podinfo.test advancement request duration 1.600s > 500ms
Halt podinfo.test advancement request duration 1.915s > 500ms
Halt podinfo.test advancement request duration 2.050s > 500ms
Halt podinfo.test advancement request duration 2.515s > 500ms
Rolling back podinfo.test failed checks threshold reached 10
Canary failed! Scaling down podinfo.test
Ja esat iespÄjojis Slack paziÅojumus, jÅ«s saÅemsit ziÅojumu, kad tiks pÄrsniegts termiÅÅ” vai tiks sasniegts maksimÄlais nesekmÄ«go pÄrbaužu skaits analÄ«zÄ:
NoslÄgumÄ
Palaižot pakalpojumu tÄ«klu, piemÄram, Istio, papildus Kubernetes, tiks nodroÅ”inÄta automÄtiska metrika, žurnÄli un protokoli, taÄu darba slodzes izvietoÅ”ana joprojÄm ir atkarÄ«ga no ÄrÄjiem rÄ«kiem. Flagger vÄlas to mainÄ«t, pievienojot Istio iespÄjas
Flagger ir saderÄ«gs ar jebkuru Kubernetes CI/CD risinÄjumu, un kanÄrijputnu analÄ«zi var viegli paplaÅ”inÄt, izmantojot
AtzÄ«mÄtÄjs ir atbalstÄ«ts
Ja jums ir ieteikumi, kÄ uzlabot atzÄ«mÄtÄju, lÅ«dzu, iesniedziet problÄmu vai PR vietnÄ GitHub vietnÄ
Paldies
Avots: www.habr.com