Automaattiset kanarialinjojen käyttöönotot Flaggerin ja Istion kanssa

Automaattiset kanarialinjojen käyttöönotot Flaggerin ja Istion kanssa

CD on tunnustettu yritysohjelmistokäytännöksi, ja se on seurausta vakiintuneiden CI-periaatteiden luonnollisesta kehityksestä. CD on kuitenkin edelleen melko harvinainen, ehkä johtuen hallinnan monimutkaisuudesta ja epäonnistuneiden käyttöönottojen pelosta, joka vaikuttaa järjestelmän saatavuuteen.

Lippulaiva on avoimen lähdekoodin Kubernetes-operaattori, jonka tavoitteena on poistaa hämmentävät suhteet. Se automatisoi Canaryn käyttöönottojen edistämisen käyttämällä Istio-liikenteen offset- ja Prometheus-mittareita sovellusten käyttäytymisen analysoimiseksi hallitun käyttöönoton aikana.

Alla on vaiheittainen opas Flaggerin määrittämiseen ja käyttöön Google Kubernetes Enginessä (GKE).

Kubernetes-klusterin määrittäminen

Aloitat luomalla GKE-klusterin Istio-lisäosalla (jos sinulla ei ole GCP-tiliä, voit rekisteröityä täällä - saadaksesi ilmaisia ​​luottoja).

Kirjaudu Google Cloudiin, luo projekti ja ota sen laskutus käyttöön. Asenna komentorivityökalu gpilvi ja määritä projektisi kanssa gcloud init.

Aseta oletusprojekti, laskenta-alue ja vyöhyke (korvaa PROJECT_ID projektillesi):

gcloud config set project PROJECT_ID
gcloud config set compute/region us-central1
gcloud config set compute/zone us-central1-a

Ota GKE-palvelu käyttöön ja luo klusteri HPA- ja Istio-lisäosilla:

gcloud services enable container.googleapis.com
K8S_VERSION=$(gcloud beta container get-server-config --format=json | jq -r '.validMasterVersions[0]')
gcloud beta container clusters create istio 
--cluster-version=${K8S_VERSION} 
--zone=us-central1-a 
--num-nodes=2 
--machine-type=n1-standard-2 
--disk-size=30 
--enable-autorepair 
--no-enable-cloud-logging 
--no-enable-cloud-monitoring 
--addons=HorizontalPodAutoscaling,Istio 
--istio-config=auth=MTLS_PERMISSIVE

Yllä oleva komento luo oletussolmujoukon, joka sisältää kaksi virtuaalikonetta n1-standard-2 (vCPU: 2, RAM 7,5 Gt, levy: 30 Gt). Ihannetapauksessa sinun pitäisi eristää Istio-komponentit työkuormistasi, mutta ei ole helppoa tapaa ajaa Istio Pods -laitteita erillisessä solmujoukossa. Istio-luetteloita pidetään vain luku -muotoisina, ja GKE kumoa kaikki muutokset, kuten linkittämisen solmuun tai irrottamisen podista.

Määritä tunnistetiedot kohteelle kubectl:

gcloud container clusters get-credentials istio

Luo klusterin järjestelmänvalvojan roolisidos:

kubectl create clusterrolebinding "cluster-admin-$(whoami)" 
--clusterrole=cluster-admin 
--user="$(gcloud config get-value core/account)"

Asenna komentorivityökalu Ruori:

brew install kubernetes-helm

Homebrew 2.0 on nyt saatavilla myös Linux.

Luo Tillerille palvelutili ja klusterin roolisidonta:

kubectl -n kube-system create sa tiller && 
kubectl create clusterrolebinding tiller-cluster-rule 
--clusterrole=cluster-admin 
--serviceaccount=kube-system:tiller

Laajenna Tiller nimiavaruudessa kube-system:

helm init --service-account tiller

Harkitse SSL:n käyttöä Helmin ja Tillerin välillä. Lisätietoja Helm-asennuksen suojaamisesta on kohdassa docs.helm.sh

Vahvista asetukset:

kubectl -n istio-system get svc

Muutaman sekunnin kuluttua GCP:n pitäisi määrittää palvelulle ulkoinen IP-osoite istio-ingressgateway.

Istio Ingress Gatewayn määrittäminen

Luo staattinen IP-osoite nimellä istio-gatewaykäyttämällä Istio-yhdyskäytävän IP-osoitetta:

export GATEWAY_IP=$(kubectl -n istio-system get svc/istio-ingressgateway -ojson | jq -r .status.loadBalancer.ingress[0].ip)
gcloud compute addresses create istio-gateway --addresses ${GATEWAY_IP} --region us-central1

Tarvitset nyt Internet-verkkotunnuksen ja pääsyn DNS-rekisteröintipalveluun. Lisää kaksi A-tietuetta (korvaa example.com verkkotunnuksellesi):

istio.example.com   A ${GATEWAY_IP}
*.istio.example.com A ${GATEWAY_IP}

Varmista, että DNS-jokerimerkki toimii:

watch host test.istio.example.com

Luo yleinen Istio-yhdyskäytävä palveluverkon ulkopuolisten palveluiden tarjoamiseksi HTTP:n kautta:

apiVersion: networking.istio.io/v1alpha3
kind: Gateway
metadata:
  name: public-gateway
  namespace: istio-system
spec:
  selector:
    istio: ingressgateway
  servers:
    - port:
        number: 80
        name: http
        protocol: HTTP
      hosts:
        - "*"

Tallenna yllä oleva resurssi nimellä public-gateway.yaml ja käytä sitä sitten:

kubectl apply -f ./public-gateway.yaml

Mikään tuotantojärjestelmä ei saa tarjota palveluita Internetissä ilman SSL:ää. Jos haluat suojata Istio-sisääntuloyhdyskäytävän varmenteiden hallinnan, CloudDNS:n ja Let's Encryptin avulla, lue dokumentointi Ilmoittaja G.K.E.

Ilmoittimen asennus

GKE Istio -lisäosa ei sisällä Prometheus-instanssia, joka puhdistaa Istio-telemetriapalvelun. Koska Flagger käyttää Istio HTTP -mittareita Canary-analyysin suorittamiseen, sinun on otettava käyttöön seuraava Prometheus-kokoonpano, joka on samanlainen kuin virallisen Istio Helm -skeeman mukana tuleva.

REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/gke/istio-prometheus.yaml

Lisää Flagger Helm -tietovarasto:

helm repo add flagger [https://flagger.app](https://flagger.app/)

Laajenna Ilmoittaja nimiavaruuteen istio-systemottamalla käyttöön Slackin ilmoitukset:

helm upgrade -i flagger flagger/flagger 
--namespace=istio-system 
--set metricsServer=http://prometheus.istio-system:9090 
--set slack.url=https://hooks.slack.com/services/YOUR-WEBHOOK-ID 
--set slack.channel=general 
--set slack.user=flagger

Voit asentaa Flaggerin mihin tahansa nimiavaruuteen, kunhan se pystyy kommunikoimaan Istio Prometheus -palvelun kanssa portissa 9090.

Flaggerissa on Grafana-kojelauta kanarian analyysiä varten. Asenna Grafana nimiavaruuteen istio-system:

helm upgrade -i flagger-grafana flagger/grafana 
--namespace=istio-system 
--set url=http://prometheus.istio-system:9090 
--set user=admin 
--set password=change-me

Paljasta Grafana avoimen yhdyskäytävän kautta luomalla virtuaalipalvelu (korvaa example.com verkkotunnuksellesi):

apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
  name: grafana
  namespace: istio-system
spec:
  hosts:
    - "grafana.istio.example.com"
  gateways:
    - public-gateway.istio-system.svc.cluster.local
  http:
    - route:
        - destination:
            host: flagger-grafana

Tallenna yllä oleva resurssi nimellä grafana-virtual-service.yaml ja käytä sitä sitten:

kubectl apply -f ./grafana-virtual-service.yaml

Muuttaessaan http://grafana.istio.example.com selaimessa sinun tulee ohjata Grafana-kirjautumissivulle.

Verkkosovellusten käyttöönotto Flaggerin avulla

Ilmoittaja ottaa käyttöön Kubernetesin ja valinnaisesti skaalautuu automaattisesti (HPA) ja luo sitten sarjan objekteja (Kubernetes-asennukset, ClusterIP-palvelut ja Istio-virtuaalipalvelut). Nämä objektit paljastavat sovelluksen palveluverkolle ja ohjaavat kanarian analyysiä ja edistymistä.

Automaattiset kanarialinjojen käyttöönotot Flaggerin ja Istion kanssa

Luo testinimiavaruus, jossa Istio Sidecar -injektio on käytössä:

REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/namespaces/test.yaml

Luo käyttöönotto ja pod automaattinen skaalaustyökalu:

kubectl apply -f ${REPO}/artifacts/canaries/deployment.yaml
kubectl apply -f ${REPO}/artifacts/canaries/hpa.yaml

Ota testikuormituspalvelu käyttöön liikenteen luomiseksi Canary-analyysin aikana:

helm upgrade -i flagger-loadtester flagger/loadtester 
--namepace=test

Luo mukautettu kanarian resurssi (korvaa example.com verkkotunnuksellesi):

apiVersion: flagger.app/v1alpha3
kind: Canary
metadata:
  name: podinfo
  namespace: test
spec:
  targetRef:
    apiVersion: apps/v1
    kind: Deployment
    name: podinfo
  progressDeadlineSeconds: 60
  autoscalerRef:
    apiVersion: autoscaling/v2beta1
    kind: HorizontalPodAutoscaler
    name: podinfo
  service:
    port: 9898
    gateways:
    - public-gateway.istio-system.svc.cluster.local
    hosts:
    - app.istio.example.com
  canaryAnalysis:
    interval: 30s
    threshold: 10
    maxWeight: 50
    stepWeight: 5
    metrics:
    - name: istio_requests_total
      threshold: 99
      interval: 30s
    - name: istio_request_duration_seconds_bucket
      threshold: 500
      interval: 30s
    webhooks:
      - name: load-test
        url: http://flagger-loadtester.test/
        timeout: 5s
        metadata:
          cmd: "hey -z 1m -q 10 -c 2 http://podinfo.test:9898/"

Tallenna yllä oleva resurssi nimellä podinfo-canary.yaml ja käytä sitä sitten:

kubectl apply -f ./podinfo-canary.yaml

Jos yllä oleva analyysi onnistuu, sitä suoritetaan viisi minuuttia ja HTTP-tiedot tarkistetaan puolen minuutin välein. Voit määrittää vähimmäisajan, joka tarvitaan kanarialinjojen käyttöönoton vahvistamiseen ja edistämiseen seuraavalla kaavalla: interval * (maxWeight / stepWeight). Canary CRD -kentät on dokumentoitu täällä.

Muutaman sekunnin kuluttua Flagger luo kanarialintuja:

# applied 
deployment.apps/podinfo
horizontalpodautoscaler.autoscaling/podinfo
canary.flagger.app/podinfo
# generated 
deployment.apps/podinfo-primary
horizontalpodautoscaler.autoscaling/podinfo-primary
service/podinfo
service/podinfo-canary
service/podinfo-primary
virtualservice.networking.istio.io/podinfo

Avaa selain ja siirry kohtaan app.istio.example.com, sinun pitäisi nähdä versionumero demo-sovelluksia.

Automaattinen kanarian analyysi ja edistäminen

Ilmoittaja toteuttaa ohjaussilmukan, joka siirtää liikennettä vähitellen kanarialinjoille ja mittaa samalla keskeisiä suorituskykymittareita, kuten HTTP-pyynnön onnistumisprosenttia, pyynnön keskimääräistä kestoa ja ryhmän kuntoa. KPI-analyysin perusteella kanaria ylennetään tai keskeytetään, ja analyysin tulokset julkaistaan ​​Slackille.

Automaattiset kanarialinjojen käyttöönotot Flaggerin ja Istion kanssa

Canaryn käyttöönotto käynnistyy, kun jokin seuraavista objekteista muuttuu:

  • Ota käyttöön PodSpec (säilön kuva, komento, portit, env jne.)
  • ConfigMapsit asennetaan taltioiksi tai kartoitetaan ympäristömuuttujiin
  • Salaisuudet asennetaan volyymeiksi tai muunnetaan ympäristömuuttujiksi

Suorita canary deploy, kun päivität säilökuvan:

kubectl -n test set image deployment/podinfo 
podinfod=quay.io/stefanprodan/podinfo:1.4.1

Ilmoittaja havaitsee, että käyttöönottoversio on muuttunut, ja alkaa jäsentää sitä:

kubectl -n test describe canary/podinfo

Events:

New revision detected podinfo.test
Scaling up podinfo.test
Waiting for podinfo.test rollout to finish: 0 of 1 updated replicas are available
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Advance podinfo.test canary weight 20
Advance podinfo.test canary weight 25
Advance podinfo.test canary weight 30
Advance podinfo.test canary weight 35
Advance podinfo.test canary weight 40
Advance podinfo.test canary weight 45
Advance podinfo.test canary weight 50
Copying podinfo.test template spec to podinfo-primary.test
Waiting for podinfo-primary.test rollout to finish: 1 of 2 updated replicas are available
Promotion completed! Scaling down podinfo.test

Analyysin aikana Canaryn tuloksia voidaan seurata Grafanalla:

Automaattiset kanarialinjojen käyttöönotot Flaggerin ja Istion kanssa

Huomaa, että jos käyttöönotossa tehdään uusia muutoksia Canary-analyysin aikana, ilmoittaja aloittaa analyysivaiheen uudelleen.

Tee luettelo kaikista klusterin kanarialinjoista:

watch kubectl get canaries --all-namespaces
NAMESPACE   NAME      STATUS        WEIGHT   LASTTRANSITIONTIME
test        podinfo   Progressing   15       2019-01-16T14:05:07Z
prod        frontend  Succeeded     0        2019-01-15T16:15:07Z
prod        backend   Failed        0        2019-01-14T17:05:07Z

Jos olet ottanut Slackin ilmoitukset käyttöön, saat seuraavat viestit:

Automaattiset kanarialinjojen käyttöönotot Flaggerin ja Istion kanssa

Automaattinen palautus

Kanarian analyysin aikana voit luoda synteettisiä HTTP 500 -virheitä ja korkean vastausviiveen nähdäksesi, pysäyttääkö ilmoittaja käyttöönoton.

Luo testikotelo ja tee siinä seuraavat:

kubectl -n test run tester 
--image=quay.io/stefanprodan/podinfo:1.2.1 
-- ./podinfo --port=9898
kubectl -n test exec -it tester-xx-xx sh

Luodaan HTTP 500 -virheitä:

watch curl http://podinfo-canary:9898/status/500

Viiveen luominen:

watch curl http://podinfo-canary:9898/delay/1

Kun epäonnistuneiden tarkistusten määrä saavuttaa kynnyksen, liikenne reititetään takaisin ensisijaiselle kanavalle, kanaria skaalataan nollaan ja käyttöönotto merkitään epäonnistuneeksi.

Kanarian virheet ja viivepiikit kirjataan Kubernetes-tapahtumina ja ilmoittaja kirjaa ne JSON-muodossa:

kubectl -n istio-system logs deployment/flagger -f | jq .msg

Starting canary deployment for podinfo.test
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Halt podinfo.test advancement success rate 69.17% < 99%
Halt podinfo.test advancement success rate 61.39% < 99%
Halt podinfo.test advancement success rate 55.06% < 99%
Halt podinfo.test advancement success rate 47.00% < 99%
Halt podinfo.test advancement success rate 37.00% < 99%
Halt podinfo.test advancement request duration 1.515s > 500ms
Halt podinfo.test advancement request duration 1.600s > 500ms
Halt podinfo.test advancement request duration 1.915s > 500ms
Halt podinfo.test advancement request duration 2.050s > 500ms
Halt podinfo.test advancement request duration 2.515s > 500ms
Rolling back podinfo.test failed checks threshold reached 10
Canary failed! Scaling down podinfo.test

Jos olet ottanut Slack-ilmoitukset käyttöön, saat viestin, kun määräaika ylittyy tai analyysin epäonnistuneiden tarkistusten enimmäismäärä saavutetaan:

Automaattiset kanarialinjojen käyttöönotot Flaggerin ja Istion kanssa

lopuksi

Istion kaltaisen palveluverkon suorittaminen Kubernetesin lisäksi tarjoaa automaattisia mittareita, lokeja ja protokollia, mutta työmäärän käyttöönotto riippuu silti ulkoisista työkaluista. Flagger pyrkii muuttamaan tätä lisäämällä Istio-ominaisuuksia progressiivinen tarjonta.

Flagger on yhteensopiva minkä tahansa Kubernetes CI/CD -ratkaisun kanssa, ja Canary-analyysiä voidaan helposti laajentaa webhookit suorittaa järjestelmän integrointi-/hyväksyntätestejä, kuormitustestejä tai muita mukautettuja tarkistuksia. Koska ilmoittaja on deklaratiivinen ja vastaa Kubernetes-tapahtumiin, sitä voidaan käyttää GitOps-putkissa yhdessä Weave Flux tai JenkinsX. Jos käytät JenkinsX:ää, voit asentaa Flaggerin jx-lisäosien kanssa.

Ilmoittaja tuettu Weaveworks ja tarjoaa kanarialinjoja Weave Cloud. Projektia testataan GKE:llä, EKS:llä ja paljaalla metallilla kubeadmillä.

Jos sinulla on ehdotuksia Flaggerin parantamiseksi, lähetä ongelma tai PR GitHubissa osoitteessa stefanprodan/flagger. Lahjoitukset ovat enemmän kuin tervetulleita!

Kiitos Ray Tsang.

Lähde: will.com

Lisää kommentti