Penerapan canary otomatis dengan Flagger dan Istio

Penerapan canary otomatis dengan Flagger dan Istio

CD diakui sebagai praktik perangkat lunak perusahaan dan merupakan hasil evolusi alami dari prinsip CI yang sudah mapan. Namun, CD masih cukup langka, mungkin karena kerumitan pengelolaan dan ketakutan akan kegagalan penerapan yang memengaruhi ketersediaan sistem.

Penanda adalah operator Kubernetes open source yang bertujuan untuk menghilangkan hubungan yang membingungkan. Ini mengotomatiskan promosi penerapan canary menggunakan offset lalu lintas Istio dan metrik Prometheus untuk menganalisis perilaku aplikasi selama peluncuran terkelola.

Di bawah ini adalah panduan langkah demi langkah untuk menyiapkan dan menggunakan Penanda di Google Kubernetes Engine (GKE).

Menyiapkan kluster Kubernetes

Anda mulai dengan membuat cluster GKE dengan add-on Istio (jika Anda tidak memiliki akun GCP, Anda dapat mendaftar di sini - untuk mendapatkan kredit gratis).

Masuk ke Google Cloud, buat proyek, dan aktifkan penagihan untuk proyek tersebut. Instal utilitas baris perintah gcloud dan atur proyek Anda dengan gcloud init.

Setel proyek default, area komputasi, dan zona (ganti PROJECT_ID untuk proyek Anda):

gcloud config set project PROJECT_ID
gcloud config set compute/region us-central1
gcloud config set compute/zone us-central1-a

Aktifkan layanan GKE dan buat cluster dengan add-on HPA dan Istio:

gcloud services enable container.googleapis.com
K8S_VERSION=$(gcloud beta container get-server-config --format=json | jq -r '.validMasterVersions[0]')
gcloud beta container clusters create istio 
--cluster-version=${K8S_VERSION} 
--zone=us-central1-a 
--num-nodes=2 
--machine-type=n1-standard-2 
--disk-size=30 
--enable-autorepair 
--no-enable-cloud-logging 
--no-enable-cloud-monitoring 
--addons=HorizontalPodAutoscaling,Istio 
--istio-config=auth=MTLS_PERMISSIVE

Perintah di atas akan membuat kumpulan node default termasuk dua VM n1-standard-2 (vCPU: 2, RAM 7,5 GB, disk: 30 GB). Idealnya, Anda harus mengisolasi komponen Istio dari beban kerja Anda, tetapi tidak ada cara mudah untuk menjalankan Istio Pod di kumpulan node khusus. Manifes Istio dianggap hanya baca dan GKE akan membatalkan perubahan apa pun, seperti menautkan ke node atau melepaskan dari pod.

Siapkan kredensial untuk kubectl:

gcloud container clusters get-credentials istio

Buat pengikatan peran administrator klaster:

kubectl create clusterrolebinding "cluster-admin-$(whoami)" 
--clusterrole=cluster-admin 
--user="$(gcloud config get-value core/account)"

Instal alat baris perintah Kemudi:

brew install kubernetes-helm

Homebrew 2.0 sekarang juga tersedia untuk Linux.

Buat akun layanan dan ikatan peran klaster untuk Tiller:

kubectl -n kube-system create sa tiller && 
kubectl create clusterrolebinding tiller-cluster-rule 
--clusterrole=cluster-admin 
--serviceaccount=kube-system:tiller

Luaskan Tiller di namespace kube-system:

helm init --service-account tiller

Anda harus mempertimbangkan untuk menggunakan SSL antara Helm dan Tiller. Untuk informasi lebih lanjut tentang melindungi pemasangan Helm Anda, lihat docs.helm.sh

Konfirmasi pengaturan:

kubectl -n istio-system get svc

Setelah beberapa detik, GCP akan menetapkan alamat IP eksternal untuk layanan tersebut istio-ingressgateway.

Mengonfigurasi Gerbang Masuk Istio

Buat alamat IP statis dengan nama istio-gatewaymenggunakan alamat IP gateway Istio:

export GATEWAY_IP=$(kubectl -n istio-system get svc/istio-ingressgateway -ojson | jq -r .status.loadBalancer.ingress[0].ip)
gcloud compute addresses create istio-gateway --addresses ${GATEWAY_IP} --region us-central1

Sekarang Anda memerlukan domain internet dan akses ke pencatat DNS Anda. Tambahkan dua catatan A (ganti example.com ke domain Anda):

istio.example.com   A ${GATEWAY_IP}
*.istio.example.com A ${GATEWAY_IP}

Verifikasi bahwa wildcard DNS berfungsi:

watch host test.istio.example.com

Buat gateway Istio generik untuk menyediakan layanan di luar mesh layanan melalui HTTP:

apiVersion: networking.istio.io/v1alpha3
kind: Gateway
metadata:
  name: public-gateway
  namespace: istio-system
spec:
  selector:
    istio: ingressgateway
  servers:
    - port:
        number: 80
        name: http
        protocol: HTTP
      hosts:
        - "*"

Simpan sumber daya di atas sebagai public-gateway.yaml lalu terapkan:

kubectl apply -f ./public-gateway.yaml

Tidak ada sistem produksi yang menyediakan layanan di Internet tanpa SSL. Untuk mengamankan gateway masuknya Istio dengan cert-manager, CloudDNS, dan Let's Encrypt, harap baca dokumentasi Penanda G.K.E.

Instalasi Penanda

Add-on GKE Istio tidak menyertakan instance Prometheus yang membersihkan layanan telemetri Istio. Karena Flagger menggunakan metrik HTTP Istio untuk melakukan analisis kenari, Anda perlu menerapkan konfigurasi Prometheus berikut, serupa dengan yang disertakan dengan skema Helm Istio resmi.

REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/gke/istio-prometheus.yaml

Tambahkan repositori Flagger Helm:

helm repo add flagger [https://flagger.app](https://flagger.app/)

Luaskan Penanda ke namespace istio-systemdengan mengaktifkan notifikasi Slack:

helm upgrade -i flagger flagger/flagger 
--namespace=istio-system 
--set metricsServer=http://prometheus.istio-system:9090 
--set slack.url=https://hooks.slack.com/services/YOUR-WEBHOOK-ID 
--set slack.channel=general 
--set slack.user=flagger

Anda dapat menginstal Flagger di namespace apa pun selama dapat berkomunikasi dengan layanan Istio Prometheus di port 9090.

Flagger memiliki dasbor Grafana untuk analisis kenari. Instal Grafana di namespace istio-system:

helm upgrade -i flagger-grafana flagger/grafana 
--namespace=istio-system 
--set url=http://prometheus.istio-system:9090 
--set user=admin 
--set password=change-me

Ekspos Grafana melalui gateway terbuka dengan membuat layanan virtual (ganti example.com ke domain Anda):

apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
  name: grafana
  namespace: istio-system
spec:
  hosts:
    - "grafana.istio.example.com"
  gateways:
    - public-gateway.istio-system.svc.cluster.local
  http:
    - route:
        - destination:
            host: flagger-grafana

Simpan resource di atas sebagai grafana-virtual-service.yaml lalu terapkan:

kubectl apply -f ./grafana-virtual-service.yaml

Saat pindah ke http://grafana.istio.example.com di browser, Anda harus diarahkan ke halaman login Grafana.

Menyebarkan aplikasi web dengan Flagger

Flagger menerapkan Kubernetes dan secara opsional meningkatkan skala secara otomatis (HPA), lalu membuat serangkaian objek (penerapan Kubernetes, layanan ClusterIP, dan layanan virtual Istio). Objek-objek ini mengekspos aplikasi ke jaring layanan dan mengontrol analisis dan kemajuan kenari.

Penerapan canary otomatis dengan Flagger dan Istio

Buat ruang nama uji dengan injeksi Istio Sidecar diaktifkan:

REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/namespaces/test.yaml

Buat penerapan dan alat skala otomatis pod:

kubectl apply -f ${REPO}/artifacts/canaries/deployment.yaml
kubectl apply -f ${REPO}/artifacts/canaries/hpa.yaml

Terapkan layanan beban uji untuk menghasilkan lalu lintas selama analisis kenari:

helm upgrade -i flagger-loadtester flagger/loadtester 
--namepace=test

Buat sumber daya kenari khusus (ganti example.com ke domain Anda):

apiVersion: flagger.app/v1alpha3
kind: Canary
metadata:
  name: podinfo
  namespace: test
spec:
  targetRef:
    apiVersion: apps/v1
    kind: Deployment
    name: podinfo
  progressDeadlineSeconds: 60
  autoscalerRef:
    apiVersion: autoscaling/v2beta1
    kind: HorizontalPodAutoscaler
    name: podinfo
  service:
    port: 9898
    gateways:
    - public-gateway.istio-system.svc.cluster.local
    hosts:
    - app.istio.example.com
  canaryAnalysis:
    interval: 30s
    threshold: 10
    maxWeight: 50
    stepWeight: 5
    metrics:
    - name: istio_requests_total
      threshold: 99
      interval: 30s
    - name: istio_request_duration_seconds_bucket
      threshold: 500
      interval: 30s
    webhooks:
      - name: load-test
        url: http://flagger-loadtester.test/
        timeout: 5s
        metadata:
          cmd: "hey -z 1m -q 10 -c 2 http://podinfo.test:9898/"

Simpan resource di atas sebagai podinfo-canary.yaml lalu terapkan:

kubectl apply -f ./podinfo-canary.yaml

Analisis di atas, jika berhasil, akan berjalan selama lima menit, memeriksa metrik HTTP setiap setengah menit. Anda dapat menentukan waktu minimum yang diperlukan untuk memvalidasi dan mempromosikan penerapan canary menggunakan rumus berikut: interval * (maxWeight / stepWeight). Bidang Canary CRD didokumentasikan di sini.

Setelah beberapa detik, Penanda akan membuat objek kenari:

# applied 
deployment.apps/podinfo
horizontalpodautoscaler.autoscaling/podinfo
canary.flagger.app/podinfo
# generated 
deployment.apps/podinfo-primary
horizontalpodautoscaler.autoscaling/podinfo-primary
service/podinfo
service/podinfo-canary
service/podinfo-primary
virtualservice.networking.istio.io/podinfo

Buka browser dan pergi ke app.istio.example.com, Anda akan melihat nomor versi aplikasi demo.

Analisis dan promosi kenari otomatis

Flagger mengimplementasikan loop kontrol yang secara bertahap memindahkan lalu lintas ke kenari sambil mengukur metrik kinerja utama seperti tingkat keberhasilan permintaan HTTP, durasi permintaan rata-rata, dan kesehatan pod. Berdasarkan analisis KPI, kenari dipromosikan atau diinterupsi, dan hasil analisis dipublikasikan ke Slack.

Penerapan canary otomatis dengan Flagger dan Istio

Penerapan Canary dipicu saat salah satu objek berikut berubah:

  • Men-deploy PodSpec (image container, perintah, port, env, dll.)
  • ConfigMap dipasang sebagai volume atau dipetakan ke variabel lingkungan
  • Rahasia dipasang sebagai volume atau dikonversi ke variabel lingkungan

Jalankan penerapan canary saat memperbarui gambar kontainer:

kubectl -n test set image deployment/podinfo 
podinfod=quay.io/stefanprodan/podinfo:1.4.1

Flagger mendeteksi bahwa versi penerapan telah berubah dan mulai menguraikannya:

kubectl -n test describe canary/podinfo

Events:

New revision detected podinfo.test
Scaling up podinfo.test
Waiting for podinfo.test rollout to finish: 0 of 1 updated replicas are available
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Advance podinfo.test canary weight 20
Advance podinfo.test canary weight 25
Advance podinfo.test canary weight 30
Advance podinfo.test canary weight 35
Advance podinfo.test canary weight 40
Advance podinfo.test canary weight 45
Advance podinfo.test canary weight 50
Copying podinfo.test template spec to podinfo-primary.test
Waiting for podinfo-primary.test rollout to finish: 1 of 2 updated replicas are available
Promotion completed! Scaling down podinfo.test

Selama analisis, hasil kenari dapat dilacak menggunakan Grafana:

Penerapan canary otomatis dengan Flagger dan Istio

Perhatikan bahwa jika perubahan baru diterapkan pada penerapan selama analisis kenari, Pelapor akan memulai ulang fase analisis.

Buat daftar semua burung kenari di klaster Anda:

watch kubectl get canaries --all-namespaces
NAMESPACE   NAME      STATUS        WEIGHT   LASTTRANSITIONTIME
test        podinfo   Progressing   15       2019-01-16T14:05:07Z
prod        frontend  Succeeded     0        2019-01-15T16:15:07Z
prod        backend   Failed        0        2019-01-14T17:05:07Z

Jika Anda telah mengaktifkan notifikasi Slack, Anda akan menerima pesan berikut:

Penerapan canary otomatis dengan Flagger dan Istio

Kembalikan otomatis

Selama analisis canary, Anda dapat menghasilkan kesalahan HTTP 500 sintetik dan latensi respons tinggi untuk melihat apakah Flagger akan menghentikan penerapan.

Buat test pod dan lakukan hal berikut di dalamnya:

kubectl -n test run tester 
--image=quay.io/stefanprodan/podinfo:1.2.1 
-- ./podinfo --port=9898
kubectl -n test exec -it tester-xx-xx sh

Menghasilkan kesalahan HTTP 500:

watch curl http://podinfo-canary:9898/status/500

Generasi penundaan:

watch curl http://podinfo-canary:9898/delay/1

Saat jumlah pemeriksaan yang gagal mencapai ambang batas, lalu lintas dialihkan kembali ke saluran utama, canary diskalakan ke nol, dan penerapan ditandai sebagai gagal.

Error Canary dan lonjakan latensi dicatat sebagai peristiwa Kubernetes dan dicatat oleh Flagger dalam format JSON:

kubectl -n istio-system logs deployment/flagger -f | jq .msg

Starting canary deployment for podinfo.test
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Halt podinfo.test advancement success rate 69.17% < 99%
Halt podinfo.test advancement success rate 61.39% < 99%
Halt podinfo.test advancement success rate 55.06% < 99%
Halt podinfo.test advancement success rate 47.00% < 99%
Halt podinfo.test advancement success rate 37.00% < 99%
Halt podinfo.test advancement request duration 1.515s > 500ms
Halt podinfo.test advancement request duration 1.600s > 500ms
Halt podinfo.test advancement request duration 1.915s > 500ms
Halt podinfo.test advancement request duration 2.050s > 500ms
Halt podinfo.test advancement request duration 2.515s > 500ms
Rolling back podinfo.test failed checks threshold reached 10
Canary failed! Scaling down podinfo.test

Jika Anda telah mengaktifkan notifikasi Slack, Anda akan menerima pesan saat tenggat waktu terlampaui atau jumlah maksimum pemeriksaan gagal dalam analisis tercapai:

Penerapan canary otomatis dengan Flagger dan Istio

Sebagai kesimpulan

Menjalankan jaring layanan seperti Istio selain Kubernetes akan menyediakan metrik, log, dan protokol otomatis, tetapi penerapan beban kerja masih bergantung pada alat eksternal. Flagger bertujuan untuk mengubahnya dengan menambahkan kemampuan Istio pengiriman progresif.

Flagger kompatibel dengan solusi CI/CD Kubernetes apa pun, dan analisis canary dapat dengan mudah diperluas webhook untuk melakukan tes integrasi/penerimaan sistem, tes beban, atau pemeriksaan khusus lainnya. Karena Flagger bersifat deklaratif dan merespons peristiwa Kubernetes, Flagger dapat digunakan dalam pipeline GitOps bersama dengan Fluks Tenun ΠΈΠ»ΠΈ JenkinsX. Jika Anda menggunakan JenkinsX, Anda dapat menginstal Flagger dengan jx addons.

Pelapor didukung tenun dan menyediakan penyebaran kenari di Menenun Awan. Proyek ini sedang diuji pada GKE, EKS, dan bare metal dengan kubeadm.

Jika Anda memiliki saran untuk meningkatkan Penanda, kirimkan masalah atau PR di GitHub di stefanprodan/pelapor. Kontribusi sangat diharapkan!

Terima kasih Ray Tsang.

Sumber: www.habr.com

Tambah komentar