Déploiements Canary automatiques avec Flagger et Istio

Déploiements Canary automatiques avec Flagger et Istio

Le CD est reconnu comme une pratique logicielle d'entreprise et est le résultat d'une évolution naturelle des principes CI établis. Cependant, le CD est encore assez rare, peut-être en raison de la complexité de la gestion et de la crainte d'échecs de déploiement affectant la disponibilité du système.

Signaleur est un opérateur Kubernetes open source qui vise à éliminer les relations confuses. Il automatise la promotion des déploiements Canary à l'aide du décalage de trafic Istio et des métriques Prometheus pour analyser le comportement des applications lors d'un déploiement géré.

Vous trouverez ci-dessous un guide étape par étape pour configurer et utiliser Flagger sur Google Kubernetes Engine (GKE).

Configurer un cluster Kubernetes

Vous commencez par créer un cluster GKE avec le module complémentaire Istio (si vous n'avez pas de compte GCP, vous pouvez vous inscrire ici - pour obtenir des crédits gratuits).

Connectez-vous à Google Cloud, créez un projet et activez sa facturation. Installer l'utilitaire de ligne de commande gcloud et montez votre projet avec gcloud init.

Définir le projet, la zone de calcul et la zone par défaut (remplacer PROJECT_ID pour votre projet):

gcloud config set project PROJECT_ID
gcloud config set compute/region us-central1
gcloud config set compute/zone us-central1-a

Activez le service GKE et créez un cluster avec les modules complémentaires HPA et Istio :

gcloud services enable container.googleapis.com
K8S_VERSION=$(gcloud beta container get-server-config --format=json | jq -r '.validMasterVersions[0]')
gcloud beta container clusters create istio 
--cluster-version=${K8S_VERSION} 
--zone=us-central1-a 
--num-nodes=2 
--machine-type=n1-standard-2 
--disk-size=30 
--enable-autorepair 
--no-enable-cloud-logging 
--no-enable-cloud-monitoring 
--addons=HorizontalPodAutoscaling,Istio 
--istio-config=auth=MTLS_PERMISSIVE

La commande ci-dessus créera un pool de nœuds par défaut comprenant deux machines virtuelles n1-standard-2 (vCPU : 2, RAM 7,5 Go, disque : 30 Go). Idéalement, vous devriez isoler les composants Istio de vos charges de travail, mais il n'existe aucun moyen simple d'exécuter des pods Istio dans un pool de nœuds dédié. Les fichiers manifestes Istio sont considérés comme en lecture seule et GKE annulera toutes les modifications, telles que l'association à un nœud ou le détachement d'un pod.

Configurer les informations d'identification pour kubectl:

gcloud container clusters get-credentials istio

Créez une liaison de rôle d'administrateur de cluster :

kubectl create clusterrolebinding "cluster-admin-$(whoami)" 
--clusterrole=cluster-admin 
--user="$(gcloud config get-value core/account)"

Installer l'outil de ligne de commande Casque:

brew install kubernetes-helm

Homebrew 2.0 est désormais également disponible pour Linux/Unix.

Créez une liaison de compte de service et de rôle de cluster pour Tiller :

kubectl -n kube-system create sa tiller && 
kubectl create clusterrolebinding tiller-cluster-rule 
--clusterrole=cluster-admin 
--serviceaccount=kube-system:tiller

Développez Tiller dans l'espace de noms kube-system:

helm init --service-account tiller

Vous devriez envisager d'utiliser SSL entre Helm et Tiller. Pour plus d'informations sur la protection de votre installation Helm, consultez docs.helm.sh

Confirmez les paramètres :

kubectl -n istio-system get svc

Après quelques secondes, GCP devrait attribuer une adresse IP externe au service. istio-ingressgateway.

Configuration de la passerelle d'entrée Istio

Créer une adresse IP statique avec un nom istio-gatewayen utilisant l'adresse IP de la passerelle Istio :

export GATEWAY_IP=$(kubectl -n istio-system get svc/istio-ingressgateway -ojson | jq -r .status.loadBalancer.ingress[0].ip)
gcloud compute addresses create istio-gateway --addresses ${GATEWAY_IP} --region us-central1

Vous avez maintenant besoin d'un domaine Internet et d'un accès à votre registraire DNS. Ajoutez deux enregistrements A (remplacez example.com à votre domaine):

istio.example.com   A ${GATEWAY_IP}
*.istio.example.com A ${GATEWAY_IP}

Vérifiez que le caractère générique DNS fonctionne :

watch host test.istio.example.com

Créez une passerelle Istio générique pour fournir des services en dehors du maillage de services via HTTP :

apiVersion: networking.istio.io/v1alpha3
kind: Gateway
metadata:
  name: public-gateway
  namespace: istio-system
spec:
  selector:
    istio: ingressgateway
  servers:
    - port:
        number: 80
        name: http
        protocol: HTTP
      hosts:
        - "*"

Enregistrez la ressource ci-dessus sous public-gateway.yaml, puis appliquez-la :

kubectl apply -f ./public-gateway.yaml

Aucun système de production ne devrait fournir de services sur Internet sans SSL. Pour sécuriser la passerelle d'entrée Istio avec cert-manager, CloudDNS et Let's Encrypt, veuillez lire documentation Flagger G.K.E.

Installation du signaleur

Le module complémentaire GKE Istio n'inclut pas d'instance Prometheus qui nettoie le service de télémétrie Istio. Étant donné que Flagger utilise les métriques HTTP Istio pour effectuer une analyse Canary, vous devez déployer la configuration Prometheus suivante, similaire à celle fournie avec le schéma officiel Istio Helm.

REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/gke/istio-prometheus.yaml

Ajoutez le dépôt Flagger Helm :

helm repo add flagger [https://flagger.app](https://flagger.app/)

Étendre Flagger à l'espace de noms istio-systemen activant les notifications Slack :

helm upgrade -i flagger flagger/flagger 
--namespace=istio-system 
--set metricsServer=http://prometheus.istio-system:9090 
--set slack.url=https://hooks.slack.com/services/YOUR-WEBHOOK-ID 
--set slack.channel=general 
--set slack.user=flagger

Vous pouvez installer Flagger dans n'importe quel espace de noms tant qu'il peut communiquer avec le service Istio Prometheus sur le port 9090.

Flagger dispose d'un tableau de bord Grafana pour l'analyse Canary. Installer Grafana dans l'espace de noms istio-system:

helm upgrade -i flagger-grafana flagger/grafana 
--namespace=istio-system 
--set url=http://prometheus.istio-system:9090 
--set user=admin 
--set password=change-me

Exposez Grafana via une passerelle ouverte en créant un service virtuel (remplacez example.com à votre domaine):

apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
  name: grafana
  namespace: istio-system
spec:
  hosts:
    - "grafana.istio.example.com"
  gateways:
    - public-gateway.istio-system.svc.cluster.local
  http:
    - route:
        - destination:
            host: flagger-grafana

Enregistrez la ressource ci-dessus sous grafana-virtual-service.yaml, puis appliquez-la :

kubectl apply -f ./grafana-virtual-service.yaml

Lors du déplacement vers http://grafana.istio.example.com dans le navigateur, vous devriez être dirigé vers la page de connexion Grafana.

Déployer des applications Web avec Flagger

Flagger déploie Kubernetes et éventuellement évolue automatiquement (HPA), puis crée une série d'objets (déploiements Kubernetes, services ClusterIP et services virtuels Istio). Ces objets exposent l'application au maillage de services et contrôlent l'analyse et la progression de Canary.

Déploiements Canary automatiques avec Flagger et Istio

Créez un espace de noms de test avec l'injection Istio Sidecar activée :

REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/namespaces/test.yaml

Créez un déploiement et un outil de scale-out automatique de pod :

kubectl apply -f ${REPO}/artifacts/canaries/deployment.yaml
kubectl apply -f ${REPO}/artifacts/canaries/hpa.yaml

Déployez un service de charge de test pour générer du trafic pendant l'analyse Canary :

helm upgrade -i flagger-loadtester flagger/loadtester 
--namepace=test

Créer une ressource Canary personnalisée (remplacer example.com à votre domaine):

apiVersion: flagger.app/v1alpha3
kind: Canary
metadata:
  name: podinfo
  namespace: test
spec:
  targetRef:
    apiVersion: apps/v1
    kind: Deployment
    name: podinfo
  progressDeadlineSeconds: 60
  autoscalerRef:
    apiVersion: autoscaling/v2beta1
    kind: HorizontalPodAutoscaler
    name: podinfo
  service:
    port: 9898
    gateways:
    - public-gateway.istio-system.svc.cluster.local
    hosts:
    - app.istio.example.com
  canaryAnalysis:
    interval: 30s
    threshold: 10
    maxWeight: 50
    stepWeight: 5
    metrics:
    - name: istio_requests_total
      threshold: 99
      interval: 30s
    - name: istio_request_duration_seconds_bucket
      threshold: 500
      interval: 30s
    webhooks:
      - name: load-test
        url: http://flagger-loadtester.test/
        timeout: 5s
        metadata:
          cmd: "hey -z 1m -q 10 -c 2 http://podinfo.test:9898/"

Enregistrez la ressource ci-dessus sous podinfo-canary.yaml, puis appliquez-la :

kubectl apply -f ./podinfo-canary.yaml

L'analyse ci-dessus, si elle réussit, durera cinq minutes et vérifiera les métriques HTTP toutes les demi-minutes. Vous pouvez déterminer le temps minimum requis pour valider et promouvoir un déploiement Canary à l'aide de la formule suivante : interval * (maxWeight / stepWeight). Les champs Canary CRD sont documentés ici.

Après quelques secondes, Flagger créera des objets Canary :

# applied 
deployment.apps/podinfo
horizontalpodautoscaler.autoscaling/podinfo
canary.flagger.app/podinfo
# generated 
deployment.apps/podinfo-primary
horizontalpodautoscaler.autoscaling/podinfo-primary
service/podinfo
service/podinfo-canary
service/podinfo-primary
virtualservice.networking.istio.io/podinfo

Ouvrez un navigateur et accédez à app.istio.example.com, vous devriez voir le numéro de version applications de démonstration.

Analyse et promotion automatiques des canaris

Flagger implémente une boucle de contrôle qui déplace progressivement le trafic vers le Canary tout en mesurant les mesures de performances clés telles que le taux de réussite des requêtes HTTP, la durée moyenne des requêtes et la santé des pods. Sur la base de l'analyse KPI, le canari est promu ou interrompu, et les résultats de l'analyse sont publiés sur Slack.

Déploiements Canary automatiques avec Flagger et Istio

Le déploiement Canary est déclenché lorsque l'un des objets suivants change :

  • Déployer PodSpec (image de conteneur, commande, ports, env, etc.)
  • Les ConfigMaps sont montés en tant que volumes ou mappés à des variables d'environnement
  • Les secrets sont montés en tant que volumes ou convertis en variables d'environnement

Exécutez Canary Deploy lors de la mise à jour d'une image de conteneur :

kubectl -n test set image deployment/podinfo 
podinfod=quay.io/stefanprodan/podinfo:1.4.1

Flagger détecte que la version de déploiement a changé et commence à l'analyser :

kubectl -n test describe canary/podinfo

Events:

New revision detected podinfo.test
Scaling up podinfo.test
Waiting for podinfo.test rollout to finish: 0 of 1 updated replicas are available
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Advance podinfo.test canary weight 20
Advance podinfo.test canary weight 25
Advance podinfo.test canary weight 30
Advance podinfo.test canary weight 35
Advance podinfo.test canary weight 40
Advance podinfo.test canary weight 45
Advance podinfo.test canary weight 50
Copying podinfo.test template spec to podinfo-primary.test
Waiting for podinfo-primary.test rollout to finish: 1 of 2 updated replicas are available
Promotion completed! Scaling down podinfo.test

Pendant l'analyse, les résultats Canary peuvent être suivis à l'aide de Grafana :

Déploiements Canary automatiques avec Flagger et Istio

Veuillez noter que si de nouvelles modifications sont appliquées à un déploiement lors de l'analyse Canary, Flagger redémarrera la phase d'analyse.

Faites une liste de tous les canaris de votre cluster :

watch kubectl get canaries --all-namespaces
NAMESPACE   NAME      STATUS        WEIGHT   LASTTRANSITIONTIME
test        podinfo   Progressing   15       2019-01-16T14:05:07Z
prod        frontend  Succeeded     0        2019-01-15T16:15:07Z
prod        backend   Failed        0        2019-01-14T17:05:07Z

Si vous avez activé les notifications Slack, vous recevrez les messages suivants :

Déploiements Canary automatiques avec Flagger et Istio

Restauration automatique

Au cours de l'analyse Canary, vous pouvez générer des erreurs HTTP 500 synthétiques et une latence de réponse élevée pour voir si Flagger arrêtera le déploiement.

Créez un module de test et procédez comme suit :

kubectl -n test run tester 
--image=quay.io/stefanprodan/podinfo:1.2.1 
-- ./podinfo --port=9898
kubectl -n test exec -it tester-xx-xx sh

Génération d'erreurs HTTP 500 :

watch curl http://podinfo-canary:9898/status/500

Génération de retard :

watch curl http://podinfo-canary:9898/delay/1

Lorsque le nombre de vérifications ayant échoué atteint le seuil, le trafic est réacheminé vers le canal principal, le Canary est mis à l'échelle à zéro et le déploiement est marqué comme ayant échoué.

Les erreurs Canary et les pics de latence sont enregistrés en tant qu'événements Kubernetes et enregistrés par Flagger au format JSON :

kubectl -n istio-system logs deployment/flagger -f | jq .msg

Starting canary deployment for podinfo.test
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Halt podinfo.test advancement success rate 69.17% < 99%
Halt podinfo.test advancement success rate 61.39% < 99%
Halt podinfo.test advancement success rate 55.06% < 99%
Halt podinfo.test advancement success rate 47.00% < 99%
Halt podinfo.test advancement success rate 37.00% < 99%
Halt podinfo.test advancement request duration 1.515s > 500ms
Halt podinfo.test advancement request duration 1.600s > 500ms
Halt podinfo.test advancement request duration 1.915s > 500ms
Halt podinfo.test advancement request duration 2.050s > 500ms
Halt podinfo.test advancement request duration 2.515s > 500ms
Rolling back podinfo.test failed checks threshold reached 10
Canary failed! Scaling down podinfo.test

Si vous avez activé les notifications Slack, vous recevrez un message lorsque le délai est dépassé ou que le nombre maximum de vérifications échouées dans l'analyse est atteint :

Déploiements Canary automatiques avec Flagger et Istio

En conclusion

L'exécution d'un maillage de services comme Istio en plus de Kubernetes fournira des métriques, des journaux et des protocoles automatiques, mais le déploiement de la charge de travail dépend toujours d'outils externes. Flagger vise à changer cela en ajoutant des fonctionnalités Istio livraison progressive.

Flagger est compatible avec n'importe quelle solution CI/CD Kubernetes, et l'analyse Canary peut être facilement étendue avec webhooks pour effectuer des tests d'intégration/d'acceptation du système, des tests de charge ou toute autre vérification personnalisée. Étant donné que Flagger est déclaratif et répond aux événements Kubernetes, il peut être utilisé dans les pipelines GitOps avec Flux de tissage ou JenkinsX. Si vous utilisez JenkinsX, vous pouvez installer Flagger avec des addons jx.

Signaleur pris en charge Tissage et fournit des déploiements Canary dans Nuage de tissage. Le projet est en cours de test sur GKE, EKS et bare metal avec kubeadm.

Si vous avez des suggestions pour améliorer Flagger, veuillez soumettre un problème ou une communication publique sur GitHub à stefanprodan/signaleur. Les contributions sont plus que bienvenues !

merci Ray Tsang.

Source: habr.com

Ajouter un commentaire