CD er anerkendt som en virksomhedssoftwarepraksis og er resultatet af en naturlig udvikling af etablerede CI-principper. CD er dog stadig ret sjælden, måske på grund af kompleksiteten i styringen og frygten for mislykkede implementeringer, der påvirker systemets tilgængelighed.
Nedenfor er en trin for trin guide til opsætning og brug af Flagger på Google Kubernetes Engine (GKE).
Opsætning af en Kubernetes-klynge
Du starter med at oprette en GKE-klynge med Istio-tilføjelsen (hvis du ikke har en GCP-konto, kan du tilmelde dig
Log ind på Google Cloud, opret et projekt, og aktiver fakturering for det. Installer kommandolinjeværktøjet gcloud init
.
Indstil standardprojekt, beregningsområde og zone (erstat PROJECT_ID
til dit projekt):
gcloud config set project PROJECT_ID
gcloud config set compute/region us-central1
gcloud config set compute/zone us-central1-a
Aktiver GKE-tjenesten og opret en klynge med HPA- og Istio-tilføjelser:
gcloud services enable container.googleapis.com
K8S_VERSION=$(gcloud beta container get-server-config --format=json | jq -r '.validMasterVersions[0]')
gcloud beta container clusters create istio
--cluster-version=${K8S_VERSION}
--zone=us-central1-a
--num-nodes=2
--machine-type=n1-standard-2
--disk-size=30
--enable-autorepair
--no-enable-cloud-logging
--no-enable-cloud-monitoring
--addons=HorizontalPodAutoscaling,Istio
--istio-config=auth=MTLS_PERMISSIVE
Ovenstående kommando vil oprette en standard nodepulje inklusive to VM'er n1-standard-2
(vCPU: 2, RAM 7,5 GB, disk: 30 GB). Ideelt set bør du isolere Istio-komponenter fra dine arbejdsbelastninger, men der er ingen nem måde at køre Istio Pods i en dedikeret pulje af noder. Istio-manifester betragtes som skrivebeskyttede, og GKE vil fortryde alle ændringer, såsom at linke til en node eller løsne sig fra en pod.
Konfigurer legitimationsoplysninger til kubectl
:
gcloud container clusters get-credentials istio
Opret en klyngeadministratorrollebinding:
kubectl create clusterrolebinding "cluster-admin-$(whoami)"
--clusterrole=cluster-admin
--user="$(gcloud config get-value core/account)"
Installer kommandolinjeværktøjet
brew install kubernetes-helm
Homebrew 2.0 er nu også tilgængelig til
Opret en servicekonto og klyngerollebinding for Tiller:
kubectl -n kube-system create sa tiller &&
kubectl create clusterrolebinding tiller-cluster-rule
--clusterrole=cluster-admin
--serviceaccount=kube-system:tiller
Udvid Tiller i navnerummet kube-system
:
helm init --service-account tiller
Du bør overveje at bruge SSL mellem Helm og Tiller. For mere information om beskyttelse af din Helm-installation, se
Bekræft indstillinger:
kubectl -n istio-system get svc
Efter et par sekunder bør GCP tildele en ekstern IP-adresse til tjenesten istio-ingressgateway
.
Konfiguration af Istio Ingress Gateway
Opret en statisk IP-adresse med et navn istio-gateway
ved at bruge IP-adressen på Istio-gatewayen:
export GATEWAY_IP=$(kubectl -n istio-system get svc/istio-ingressgateway -ojson | jq -r .status.loadBalancer.ingress[0].ip)
gcloud compute addresses create istio-gateway --addresses ${GATEWAY_IP} --region us-central1
Nu har du brug for et internetdomæne og adgang til din DNS-registrator. Tilføj to A-poster (erstat example.com
til dit domæne):
istio.example.com A ${GATEWAY_IP}
*.istio.example.com A ${GATEWAY_IP}
Bekræft, at DNS-jokertegnet virker:
watch host test.istio.example.com
Opret en generisk Istio-gateway til at levere tjenester uden for tjenestenettet over HTTP:
apiVersion: networking.istio.io/v1alpha3
kind: Gateway
metadata:
name: public-gateway
namespace: istio-system
spec:
selector:
istio: ingressgateway
servers:
- port:
number: 80
name: http
protocol: HTTP
hosts:
- "*"
Gem ovenstående ressource som public-gateway.yaml, og anvend den derefter:
kubectl apply -f ./public-gateway.yaml
Intet produktionssystem bør levere tjenester på internettet uden SSL. For at sikre Istio-indgangsgatewayen med cert-manager, CloudDNS og Let's Encrypt, læs venligst
Flagger installation
GKE Istio-tilføjelsen inkluderer ikke en Prometheus-instans, der rydder op i Istio-telemetritjenesten. Fordi Flagger bruger Istio HTTP-metrics til at udføre kanariske analyser, skal du implementere følgende Prometheus-konfiguration, der ligner den, der følger med det officielle Istio Helm-skema.
REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/gke/istio-prometheus.yaml
Tilføj Flagger Helm-depotet:
helm repo add flagger [https://flagger.app](https://flagger.app/)
Udvid Flagger til navneområde istio-system
ved at aktivere Slack-meddelelser:
helm upgrade -i flagger flagger/flagger
--namespace=istio-system
--set metricsServer=http://prometheus.istio-system:9090
--set slack.url=https://hooks.slack.com/services/YOUR-WEBHOOK-ID
--set slack.channel=general
--set slack.user=flagger
Du kan installere Flagger i ethvert navneområde, så længe det kan kommunikere med Istio Prometheus-tjenesten på port 9090.
Flagger har et Grafana-dashboard til kanarie-analyse. Installer Grafana i navneområdet istio-system
:
helm upgrade -i flagger-grafana flagger/grafana
--namespace=istio-system
--set url=http://prometheus.istio-system:9090
--set user=admin
--set password=change-me
Eksponer Grafana gennem en åben gateway ved at oprette en virtuel tjeneste (erstat example.com
til dit domæne):
apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
name: grafana
namespace: istio-system
spec:
hosts:
- "grafana.istio.example.com"
gateways:
- public-gateway.istio-system.svc.cluster.local
http:
- route:
- destination:
host: flagger-grafana
Gem ovenstående ressource som grafana-virtual-service.yaml og anvend den derefter:
kubectl apply -f ./grafana-virtual-service.yaml
Ved flytning til http://grafana.istio.example.com
i browseren skal du ledes til Grafana login-siden.
Implementering af webapplikationer med Flagger
Flagger implementerer Kubernetes og skalerer ud automatisk (HPA) og opretter derefter en række objekter (Kubernetes-implementeringer, ClusterIP-tjenester og virtuelle Istio-tjenester). Disse objekter udsætter applikationen for servicenettet og kontrollerer analyse og fremskridt.
Opret et testnavneområde med Istio Sidecar-indsprøjtning aktiveret:
REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/namespaces/test.yaml
Opret en implementering og et automatisk udskaleringsværktøj:
kubectl apply -f ${REPO}/artifacts/canaries/deployment.yaml
kubectl apply -f ${REPO}/artifacts/canaries/hpa.yaml
Implementer en testindlæsningstjeneste for at generere trafik under kanarie-analyse:
helm upgrade -i flagger-loadtester flagger/loadtester
--namepace=test
Opret en tilpasset kanarie-ressource (erstat example.com
til dit domæne):
apiVersion: flagger.app/v1alpha3
kind: Canary
metadata:
name: podinfo
namespace: test
spec:
targetRef:
apiVersion: apps/v1
kind: Deployment
name: podinfo
progressDeadlineSeconds: 60
autoscalerRef:
apiVersion: autoscaling/v2beta1
kind: HorizontalPodAutoscaler
name: podinfo
service:
port: 9898
gateways:
- public-gateway.istio-system.svc.cluster.local
hosts:
- app.istio.example.com
canaryAnalysis:
interval: 30s
threshold: 10
maxWeight: 50
stepWeight: 5
metrics:
- name: istio_requests_total
threshold: 99
interval: 30s
- name: istio_request_duration_seconds_bucket
threshold: 500
interval: 30s
webhooks:
- name: load-test
url: http://flagger-loadtester.test/
timeout: 5s
metadata:
cmd: "hey -z 1m -q 10 -c 2 http://podinfo.test:9898/"
Gem ovenstående ressource som podinfo-canary.yaml og anvend den derefter:
kubectl apply -f ./podinfo-canary.yaml
Ovenstående analyse, hvis den lykkes, vil køre i fem minutter og tjekke HTTP-metrics hvert halve minut. Du kan bestemme den minimale tid, der kræves for at validere og fremme en kanarie-udsættelse ved hjælp af følgende formel: interval * (maxWeight / stepWeight)
. Kanariske CRD-felter er dokumenteret
Efter et par sekunder vil Flagger oprette kanariske objekter:
# applied
deployment.apps/podinfo
horizontalpodautoscaler.autoscaling/podinfo
canary.flagger.app/podinfo
# generated
deployment.apps/podinfo-primary
horizontalpodautoscaler.autoscaling/podinfo-primary
service/podinfo
service/podinfo-canary
service/podinfo-primary
virtualservice.networking.istio.io/podinfo
Åbn en browser og gå til app.istio.example.com
, bør du se versionsnummeret
Automatisk kanariefugleanalyse og forfremmelse
Flagger implementerer en kontrolsløjfe, der gradvist flytter trafikken til Kanariefuglen, mens den måler vigtige præstationsmetrikker såsom HTTP-anmodningssuccesrate, gennemsnitlig anmodningsvarighed og pod-sundhed. Baseret på KPI-analysen promoveres eller afbrydes kanariefuglen, og resultaterne af analysen offentliggøres til Slack.
Canary-implementering udløses, når et af følgende objekter ændres:
- Implementer PodSpec (containerbillede, kommando, porte, env osv.)
- ConfigMaps monteres som volumener eller kortlægges til miljøvariabler
- Hemmeligheder monteres som volumener eller konverteres til miljøvariabler
Kør canary-implementering, når du opdaterer et containerbillede:
kubectl -n test set image deployment/podinfo
podinfod=quay.io/stefanprodan/podinfo:1.4.1
Flagger registrerer, at implementeringsversionen er ændret og begynder at parse den:
kubectl -n test describe canary/podinfo
Events:
New revision detected podinfo.test
Scaling up podinfo.test
Waiting for podinfo.test rollout to finish: 0 of 1 updated replicas are available
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Advance podinfo.test canary weight 20
Advance podinfo.test canary weight 25
Advance podinfo.test canary weight 30
Advance podinfo.test canary weight 35
Advance podinfo.test canary weight 40
Advance podinfo.test canary weight 45
Advance podinfo.test canary weight 50
Copying podinfo.test template spec to podinfo-primary.test
Waiting for podinfo-primary.test rollout to finish: 1 of 2 updated replicas are available
Promotion completed! Scaling down podinfo.test
Under analyse kan resultaterne af kanariefugle spores ved hjælp af Grafana:
Bemærk venligst, at hvis nye ændringer anvendes på en implementering under kanarie-analyse, vil Flagger genstarte analysefasen.
Lav en liste over alle kanariefugle i din klynge:
watch kubectl get canaries --all-namespaces
NAMESPACE NAME STATUS WEIGHT LASTTRANSITIONTIME
test podinfo Progressing 15 2019-01-16T14:05:07Z
prod frontend Succeeded 0 2019-01-15T16:15:07Z
prod backend Failed 0 2019-01-14T17:05:07Z
Hvis du har aktiveret Slack-meddelelser, vil du modtage følgende beskeder:
Automatisk tilbagerulning
Under canary-analyse kan du generere syntetiske HTTP 500-fejl og høj responsforsinkelse for at se, om Flagger stopper implementeringen.
Opret en testpod og gør følgende i den:
kubectl -n test run tester
--image=quay.io/stefanprodan/podinfo:1.2.1
-- ./podinfo --port=9898
kubectl -n test exec -it tester-xx-xx sh
Generering af HTTP 500-fejl:
watch curl http://podinfo-canary:9898/status/500
Forsinkelsesgenerering:
watch curl http://podinfo-canary:9898/delay/1
Når antallet af mislykkede kontroller når tærsklen, dirigeres trafikken tilbage til den primære kanal, kanariefuglen skaleres til nul, og implementeringen markeres som mislykket.
Kanariske fejl og latency-spidser logges som Kubernetes-hændelser og logges af Flagger i JSON-format:
kubectl -n istio-system logs deployment/flagger -f | jq .msg
Starting canary deployment for podinfo.test
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Halt podinfo.test advancement success rate 69.17% < 99%
Halt podinfo.test advancement success rate 61.39% < 99%
Halt podinfo.test advancement success rate 55.06% < 99%
Halt podinfo.test advancement success rate 47.00% < 99%
Halt podinfo.test advancement success rate 37.00% < 99%
Halt podinfo.test advancement request duration 1.515s > 500ms
Halt podinfo.test advancement request duration 1.600s > 500ms
Halt podinfo.test advancement request duration 1.915s > 500ms
Halt podinfo.test advancement request duration 2.050s > 500ms
Halt podinfo.test advancement request duration 2.515s > 500ms
Rolling back podinfo.test failed checks threshold reached 10
Canary failed! Scaling down podinfo.test
Hvis du har aktiveret Slack-notifikationer, vil du modtage en besked, når fristen er overskredet, eller det maksimale antal fejlslagne kontroller i analysen er nået:
Afslutningsvis
At køre et servicemesh som Istio ud over Kubernetes vil give automatiske målinger, logfiler og protokoller, men implementering af arbejdsbelastning afhænger stadig af eksterne værktøjer. Flagger sigter mod at ændre dette ved at tilføje Istio-funktioner
Flagger er kompatibel med enhver Kubernetes CI/CD-løsning, og kanarie-analyse kan nemt udvides med
Flagger understøttet
Hvis du har forslag til at forbedre Flagger, bedes du indsende et problem eller PR på GitHub på
Tak
Kilde: www.habr.com