CD on tunnustettu yritysohjelmistokäytännöksi, ja se on seurausta vakiintuneiden CI-periaatteiden luonnollisesta kehityksestä. CD on kuitenkin edelleen melko harvinainen, ehkä johtuen hallinnan monimutkaisuudesta ja epäonnistuneiden käyttöönottojen pelosta, joka vaikuttaa järjestelmän saatavuuteen.
Alla on vaiheittainen opas Flaggerin määrittämiseen ja käyttöön Google Kubernetes Enginessä (GKE).
Kubernetes-klusterin määrittäminen
Aloitat luomalla GKE-klusterin Istio-lisäosalla (jos sinulla ei ole GCP-tiliä, voit rekisteröityä
Kirjaudu Google Cloudiin, luo projekti ja ota sen laskutus käyttöön. Asenna komentorivityökalu gcloud init
.
Aseta oletusprojekti, laskenta-alue ja vyöhyke (korvaa PROJECT_ID
projektillesi):
gcloud config set project PROJECT_ID
gcloud config set compute/region us-central1
gcloud config set compute/zone us-central1-a
Ota GKE-palvelu käyttöön ja luo klusteri HPA- ja Istio-lisäosilla:
gcloud services enable container.googleapis.com
K8S_VERSION=$(gcloud beta container get-server-config --format=json | jq -r '.validMasterVersions[0]')
gcloud beta container clusters create istio
--cluster-version=${K8S_VERSION}
--zone=us-central1-a
--num-nodes=2
--machine-type=n1-standard-2
--disk-size=30
--enable-autorepair
--no-enable-cloud-logging
--no-enable-cloud-monitoring
--addons=HorizontalPodAutoscaling,Istio
--istio-config=auth=MTLS_PERMISSIVE
Yllä oleva komento luo oletussolmujoukon, joka sisältää kaksi virtuaalikonetta n1-standard-2
(vCPU: 2, RAM 7,5 Gt, levy: 30 Gt). Ihannetapauksessa sinun pitäisi eristää Istio-komponentit työkuormistasi, mutta ei ole helppoa tapaa ajaa Istio Pods -laitteita erillisessä solmujoukossa. Istio-luetteloita pidetään vain luku -muotoisina, ja GKE kumoa kaikki muutokset, kuten linkittämisen solmuun tai irrottamisen podista.
Määritä tunnistetiedot kohteelle kubectl
:
gcloud container clusters get-credentials istio
Luo klusterin järjestelmänvalvojan roolisidos:
kubectl create clusterrolebinding "cluster-admin-$(whoami)"
--clusterrole=cluster-admin
--user="$(gcloud config get-value core/account)"
Asenna komentorivityökalu
brew install kubernetes-helm
Homebrew 2.0 on nyt saatavilla myös
Luo Tillerille palvelutili ja klusterin roolisidonta:
kubectl -n kube-system create sa tiller &&
kubectl create clusterrolebinding tiller-cluster-rule
--clusterrole=cluster-admin
--serviceaccount=kube-system:tiller
Laajenna Tiller nimiavaruudessa kube-system
:
helm init --service-account tiller
Harkitse SSL:n käyttöä Helmin ja Tillerin välillä. Lisätietoja Helm-asennuksen suojaamisesta on kohdassa
Vahvista asetukset:
kubectl -n istio-system get svc
Muutaman sekunnin kuluttua GCP:n pitäisi määrittää palvelulle ulkoinen IP-osoite istio-ingressgateway
.
Istio Ingress Gatewayn määrittäminen
Luo staattinen IP-osoite nimellä istio-gateway
käyttämällä Istio-yhdyskäytävän IP-osoitetta:
export GATEWAY_IP=$(kubectl -n istio-system get svc/istio-ingressgateway -ojson | jq -r .status.loadBalancer.ingress[0].ip)
gcloud compute addresses create istio-gateway --addresses ${GATEWAY_IP} --region us-central1
Tarvitset nyt Internet-verkkotunnuksen ja pääsyn DNS-rekisteröintipalveluun. Lisää kaksi A-tietuetta (korvaa example.com
verkkotunnuksellesi):
istio.example.com A ${GATEWAY_IP}
*.istio.example.com A ${GATEWAY_IP}
Varmista, että DNS-jokerimerkki toimii:
watch host test.istio.example.com
Luo yleinen Istio-yhdyskäytävä palveluverkon ulkopuolisten palveluiden tarjoamiseksi HTTP:n kautta:
apiVersion: networking.istio.io/v1alpha3
kind: Gateway
metadata:
name: public-gateway
namespace: istio-system
spec:
selector:
istio: ingressgateway
servers:
- port:
number: 80
name: http
protocol: HTTP
hosts:
- "*"
Tallenna yllä oleva resurssi nimellä public-gateway.yaml ja käytä sitä sitten:
kubectl apply -f ./public-gateway.yaml
Mikään tuotantojärjestelmä ei saa tarjota palveluita Internetissä ilman SSL:ää. Jos haluat suojata Istio-sisääntuloyhdyskäytävän varmenteiden hallinnan, CloudDNS:n ja Let's Encryptin avulla, lue
Ilmoittimen asennus
GKE Istio -lisäosa ei sisällä Prometheus-instanssia, joka puhdistaa Istio-telemetriapalvelun. Koska Flagger käyttää Istio HTTP -mittareita Canary-analyysin suorittamiseen, sinun on otettava käyttöön seuraava Prometheus-kokoonpano, joka on samanlainen kuin virallisen Istio Helm -skeeman mukana tuleva.
REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/gke/istio-prometheus.yaml
Lisää Flagger Helm -tietovarasto:
helm repo add flagger [https://flagger.app](https://flagger.app/)
Laajenna Ilmoittaja nimiavaruuteen istio-system
ottamalla käyttöön Slackin ilmoitukset:
helm upgrade -i flagger flagger/flagger
--namespace=istio-system
--set metricsServer=http://prometheus.istio-system:9090
--set slack.url=https://hooks.slack.com/services/YOUR-WEBHOOK-ID
--set slack.channel=general
--set slack.user=flagger
Voit asentaa Flaggerin mihin tahansa nimiavaruuteen, kunhan se pystyy kommunikoimaan Istio Prometheus -palvelun kanssa portissa 9090.
Flaggerissa on Grafana-kojelauta kanarian analyysiä varten. Asenna Grafana nimiavaruuteen istio-system
:
helm upgrade -i flagger-grafana flagger/grafana
--namespace=istio-system
--set url=http://prometheus.istio-system:9090
--set user=admin
--set password=change-me
Paljasta Grafana avoimen yhdyskäytävän kautta luomalla virtuaalipalvelu (korvaa example.com
verkkotunnuksellesi):
apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
name: grafana
namespace: istio-system
spec:
hosts:
- "grafana.istio.example.com"
gateways:
- public-gateway.istio-system.svc.cluster.local
http:
- route:
- destination:
host: flagger-grafana
Tallenna yllä oleva resurssi nimellä grafana-virtual-service.yaml ja käytä sitä sitten:
kubectl apply -f ./grafana-virtual-service.yaml
Muuttaessaan http://grafana.istio.example.com
selaimessa sinun tulee ohjata Grafana-kirjautumissivulle.
Verkkosovellusten käyttöönotto Flaggerin avulla
Ilmoittaja ottaa käyttöön Kubernetesin ja valinnaisesti skaalautuu automaattisesti (HPA) ja luo sitten sarjan objekteja (Kubernetes-asennukset, ClusterIP-palvelut ja Istio-virtuaalipalvelut). Nämä objektit paljastavat sovelluksen palveluverkolle ja ohjaavat kanarian analyysiä ja edistymistä.
Luo testinimiavaruus, jossa Istio Sidecar -injektio on käytössä:
REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/namespaces/test.yaml
Luo käyttöönotto ja pod automaattinen skaalaustyökalu:
kubectl apply -f ${REPO}/artifacts/canaries/deployment.yaml
kubectl apply -f ${REPO}/artifacts/canaries/hpa.yaml
Ota testikuormituspalvelu käyttöön liikenteen luomiseksi Canary-analyysin aikana:
helm upgrade -i flagger-loadtester flagger/loadtester
--namepace=test
Luo mukautettu kanarian resurssi (korvaa example.com
verkkotunnuksellesi):
apiVersion: flagger.app/v1alpha3
kind: Canary
metadata:
name: podinfo
namespace: test
spec:
targetRef:
apiVersion: apps/v1
kind: Deployment
name: podinfo
progressDeadlineSeconds: 60
autoscalerRef:
apiVersion: autoscaling/v2beta1
kind: HorizontalPodAutoscaler
name: podinfo
service:
port: 9898
gateways:
- public-gateway.istio-system.svc.cluster.local
hosts:
- app.istio.example.com
canaryAnalysis:
interval: 30s
threshold: 10
maxWeight: 50
stepWeight: 5
metrics:
- name: istio_requests_total
threshold: 99
interval: 30s
- name: istio_request_duration_seconds_bucket
threshold: 500
interval: 30s
webhooks:
- name: load-test
url: http://flagger-loadtester.test/
timeout: 5s
metadata:
cmd: "hey -z 1m -q 10 -c 2 http://podinfo.test:9898/"
Tallenna yllä oleva resurssi nimellä podinfo-canary.yaml ja käytä sitä sitten:
kubectl apply -f ./podinfo-canary.yaml
Jos yllä oleva analyysi onnistuu, sitä suoritetaan viisi minuuttia ja HTTP-tiedot tarkistetaan puolen minuutin välein. Voit määrittää vähimmäisajan, joka tarvitaan kanarialinjojen käyttöönoton vahvistamiseen ja edistämiseen seuraavalla kaavalla: interval * (maxWeight / stepWeight)
. Canary CRD -kentät on dokumentoitu
Muutaman sekunnin kuluttua Flagger luo kanarialintuja:
# applied
deployment.apps/podinfo
horizontalpodautoscaler.autoscaling/podinfo
canary.flagger.app/podinfo
# generated
deployment.apps/podinfo-primary
horizontalpodautoscaler.autoscaling/podinfo-primary
service/podinfo
service/podinfo-canary
service/podinfo-primary
virtualservice.networking.istio.io/podinfo
Avaa selain ja siirry kohtaan app.istio.example.com
, sinun pitäisi nähdä versionumero
Automaattinen kanarian analyysi ja edistäminen
Ilmoittaja toteuttaa ohjaussilmukan, joka siirtää liikennettä vähitellen kanarialinjoille ja mittaa samalla keskeisiä suorituskykymittareita, kuten HTTP-pyynnön onnistumisprosenttia, pyynnön keskimääräistä kestoa ja ryhmän kuntoa. KPI-analyysin perusteella kanaria ylennetään tai keskeytetään, ja analyysin tulokset julkaistaan Slackille.
Canaryn käyttöönotto käynnistyy, kun jokin seuraavista objekteista muuttuu:
- Ota käyttöön PodSpec (säilön kuva, komento, portit, env jne.)
- ConfigMapsit asennetaan taltioiksi tai kartoitetaan ympäristömuuttujiin
- Salaisuudet asennetaan volyymeiksi tai muunnetaan ympäristömuuttujiksi
Suorita canary deploy, kun päivität säilökuvan:
kubectl -n test set image deployment/podinfo
podinfod=quay.io/stefanprodan/podinfo:1.4.1
Ilmoittaja havaitsee, että käyttöönottoversio on muuttunut, ja alkaa jäsentää sitä:
kubectl -n test describe canary/podinfo
Events:
New revision detected podinfo.test
Scaling up podinfo.test
Waiting for podinfo.test rollout to finish: 0 of 1 updated replicas are available
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Advance podinfo.test canary weight 20
Advance podinfo.test canary weight 25
Advance podinfo.test canary weight 30
Advance podinfo.test canary weight 35
Advance podinfo.test canary weight 40
Advance podinfo.test canary weight 45
Advance podinfo.test canary weight 50
Copying podinfo.test template spec to podinfo-primary.test
Waiting for podinfo-primary.test rollout to finish: 1 of 2 updated replicas are available
Promotion completed! Scaling down podinfo.test
Analyysin aikana Canaryn tuloksia voidaan seurata Grafanalla:
Huomaa, että jos käyttöönotossa tehdään uusia muutoksia Canary-analyysin aikana, ilmoittaja aloittaa analyysivaiheen uudelleen.
Tee luettelo kaikista klusterin kanarialinjoista:
watch kubectl get canaries --all-namespaces
NAMESPACE NAME STATUS WEIGHT LASTTRANSITIONTIME
test podinfo Progressing 15 2019-01-16T14:05:07Z
prod frontend Succeeded 0 2019-01-15T16:15:07Z
prod backend Failed 0 2019-01-14T17:05:07Z
Jos olet ottanut Slackin ilmoitukset käyttöön, saat seuraavat viestit:
Automaattinen palautus
Kanarian analyysin aikana voit luoda synteettisiä HTTP 500 -virheitä ja korkean vastausviiveen nähdäksesi, pysäyttääkö ilmoittaja käyttöönoton.
Luo testikotelo ja tee siinä seuraavat:
kubectl -n test run tester
--image=quay.io/stefanprodan/podinfo:1.2.1
-- ./podinfo --port=9898
kubectl -n test exec -it tester-xx-xx sh
Luodaan HTTP 500 -virheitä:
watch curl http://podinfo-canary:9898/status/500
Viiveen luominen:
watch curl http://podinfo-canary:9898/delay/1
Kun epäonnistuneiden tarkistusten määrä saavuttaa kynnyksen, liikenne reititetään takaisin ensisijaiselle kanavalle, kanaria skaalataan nollaan ja käyttöönotto merkitään epäonnistuneeksi.
Kanarian virheet ja viivepiikit kirjataan Kubernetes-tapahtumina ja ilmoittaja kirjaa ne JSON-muodossa:
kubectl -n istio-system logs deployment/flagger -f | jq .msg
Starting canary deployment for podinfo.test
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Halt podinfo.test advancement success rate 69.17% < 99%
Halt podinfo.test advancement success rate 61.39% < 99%
Halt podinfo.test advancement success rate 55.06% < 99%
Halt podinfo.test advancement success rate 47.00% < 99%
Halt podinfo.test advancement success rate 37.00% < 99%
Halt podinfo.test advancement request duration 1.515s > 500ms
Halt podinfo.test advancement request duration 1.600s > 500ms
Halt podinfo.test advancement request duration 1.915s > 500ms
Halt podinfo.test advancement request duration 2.050s > 500ms
Halt podinfo.test advancement request duration 2.515s > 500ms
Rolling back podinfo.test failed checks threshold reached 10
Canary failed! Scaling down podinfo.test
Jos olet ottanut Slack-ilmoitukset käyttöön, saat viestin, kun määräaika ylittyy tai analyysin epäonnistuneiden tarkistusten enimmäismäärä saavutetaan:
lopuksi
Istion kaltaisen palveluverkon suorittaminen Kubernetesin lisäksi tarjoaa automaattisia mittareita, lokeja ja protokollia, mutta työmäärän käyttöönotto riippuu silti ulkoisista työkaluista. Flagger pyrkii muuttamaan tätä lisäämällä Istio-ominaisuuksia
Flagger on yhteensopiva minkä tahansa Kubernetes CI/CD -ratkaisun kanssa, ja Canary-analyysiä voidaan helposti laajentaa
Ilmoittaja tuettu
Jos sinulla on ehdotuksia Flaggerin parantamiseksi, lähetä ongelma tai PR GitHubissa osoitteessa
Kiitos
Lähde: will.com