CD ಯನ್ನು ಎಂಟರ್ಪ್ರೈಸ್ ಸಾಫ್ಟ್ವೇರ್ ಅಭ್ಯಾಸವೆಂದು ಗುರುತಿಸಲಾಗಿದೆ ಮತ್ತು ಇದು ಸ್ಥಾಪಿತ CI ತತ್ವಗಳ ನೈಸರ್ಗಿಕ ವಿಕಾಸದ ಫಲಿತಾಂಶವಾಗಿದೆ. ಆದಾಗ್ಯೂ, CD ಇನ್ನೂ ಸಾಕಷ್ಟು ವಿರಳವಾಗಿದೆ, ಬಹುಶಃ ನಿರ್ವಹಣೆಯ ಸಂಕೀರ್ಣತೆ ಮತ್ತು ಸಿಸ್ಟಮ್ ಲಭ್ಯತೆಯ ಮೇಲೆ ಪರಿಣಾಮ ಬೀರುವ ವಿಫಲ ನಿಯೋಜನೆಗಳ ಭಯದಿಂದಾಗಿ.
Google Kubernetes Engine (GKE) ನಲ್ಲಿ ಫ್ಲ್ಯಾಗರ್ ಅನ್ನು ಹೊಂದಿಸಲು ಮತ್ತು ಬಳಸಲು ಹಂತ ಹಂತದ ಮಾರ್ಗದರ್ಶಿ ಕೆಳಗೆ ನೀಡಲಾಗಿದೆ.
ಕುಬರ್ನೆಟ್ಸ್ ಕ್ಲಸ್ಟರ್ ಅನ್ನು ಹೊಂದಿಸಲಾಗುತ್ತಿದೆ
ನೀವು Istio ಆಡ್-ಆನ್ನೊಂದಿಗೆ GKE ಕ್ಲಸ್ಟರ್ ಅನ್ನು ರಚಿಸುವ ಮೂಲಕ ಪ್ರಾರಂಭಿಸಿ (ನೀವು GCP ಖಾತೆಯನ್ನು ಹೊಂದಿಲ್ಲದಿದ್ದರೆ, ನೀವು ಸೈನ್ ಅಪ್ ಮಾಡಬಹುದು
Google ಕ್ಲೌಡ್ಗೆ ಸೈನ್ ಇನ್ ಮಾಡಿ, ಯೋಜನೆಯನ್ನು ರಚಿಸಿ ಮತ್ತು ಅದಕ್ಕೆ ಬಿಲ್ಲಿಂಗ್ ಅನ್ನು ಸಕ್ರಿಯಗೊಳಿಸಿ. ಆಜ್ಞಾ ಸಾಲಿನ ಉಪಯುಕ್ತತೆಯನ್ನು ಸ್ಥಾಪಿಸಿ gcloud init
.
ಡೀಫಾಲ್ಟ್ ಯೋಜನೆ, ಕಂಪ್ಯೂಟ್ ಪ್ರದೇಶ ಮತ್ತು ವಲಯವನ್ನು ಹೊಂದಿಸಿ (ಬದಲಿಯಾಗಿ PROJECT_ID
ನಿಮ್ಮ ಯೋಜನೆಗಾಗಿ):
gcloud config set project PROJECT_ID
gcloud config set compute/region us-central1
gcloud config set compute/zone us-central1-a
GKE ಸೇವೆಯನ್ನು ಸಕ್ರಿಯಗೊಳಿಸಿ ಮತ್ತು HPA ಮತ್ತು Istio ಆಡ್-ಆನ್ಗಳೊಂದಿಗೆ ಕ್ಲಸ್ಟರ್ ಅನ್ನು ರಚಿಸಿ:
gcloud services enable container.googleapis.com
K8S_VERSION=$(gcloud beta container get-server-config --format=json | jq -r '.validMasterVersions[0]')
gcloud beta container clusters create istio
--cluster-version=${K8S_VERSION}
--zone=us-central1-a
--num-nodes=2
--machine-type=n1-standard-2
--disk-size=30
--enable-autorepair
--no-enable-cloud-logging
--no-enable-cloud-monitoring
--addons=HorizontalPodAutoscaling,Istio
--istio-config=auth=MTLS_PERMISSIVE
ಮೇಲಿನ ಆಜ್ಞೆಯು ಎರಡು VM ಗಳನ್ನು ಒಳಗೊಂಡಂತೆ ಡೀಫಾಲ್ಟ್ ನೋಡ್ ಪೂಲ್ ಅನ್ನು ರಚಿಸುತ್ತದೆ n1-standard-2
(vCPU: 2, RAM 7,5 GB, ಡಿಸ್ಕ್: 30 GB). ತಾತ್ತ್ವಿಕವಾಗಿ, ನಿಮ್ಮ ಕೆಲಸದ ಹೊರೆಗಳಿಂದ ನೀವು ಇಸ್ಟಿಯೊ ಘಟಕಗಳನ್ನು ಪ್ರತ್ಯೇಕಿಸಬೇಕು, ಆದರೆ ನೋಡ್ಗಳ ಮೀಸಲಾದ ಪೂಲ್ನಲ್ಲಿ ಇಸ್ಟಿಯೊ ಪಾಡ್ಗಳನ್ನು ಚಲಾಯಿಸಲು ಯಾವುದೇ ಸುಲಭವಾದ ಮಾರ್ಗವಿಲ್ಲ. ಇಸ್ಟಿಯೊ ಮ್ಯಾನಿಫೆಸ್ಟ್ಗಳನ್ನು ಓದಲು-ಮಾತ್ರ ಎಂದು ಪರಿಗಣಿಸಲಾಗುತ್ತದೆ ಮತ್ತು GKE ಯಾವುದೇ ಬದಲಾವಣೆಗಳನ್ನು ರದ್ದುಗೊಳಿಸುತ್ತದೆ, ಉದಾಹರಣೆಗೆ ನೋಡ್ಗೆ ಲಿಂಕ್ ಮಾಡುವುದು ಅಥವಾ ಪಾಡ್ನಿಂದ ಬೇರ್ಪಡಿಸುವುದು.
ಗಾಗಿ ರುಜುವಾತುಗಳನ್ನು ಹೊಂದಿಸಿ kubectl
:
gcloud container clusters get-credentials istio
ಕ್ಲಸ್ಟರ್ ಅಡ್ಮಿನಿಸ್ಟ್ರೇಟರ್ ರೋಲ್ ಬೈಂಡಿಂಗ್ ಅನ್ನು ರಚಿಸಿ:
kubectl create clusterrolebinding "cluster-admin-$(whoami)"
--clusterrole=cluster-admin
--user="$(gcloud config get-value core/account)"
ಆಜ್ಞಾ ಸಾಲಿನ ಉಪಕರಣವನ್ನು ಸ್ಥಾಪಿಸಿ
brew install kubernetes-helm
Homebrew 2.0 ಈಗ ಸಹ ಲಭ್ಯವಿದೆ
ಟಿಲ್ಲರ್ಗಾಗಿ ಸೇವಾ ಖಾತೆ ಮತ್ತು ಕ್ಲಸ್ಟರ್ ರೋಲ್ ಬೈಂಡಿಂಗ್ ಅನ್ನು ರಚಿಸಿ:
kubectl -n kube-system create sa tiller &&
kubectl create clusterrolebinding tiller-cluster-rule
--clusterrole=cluster-admin
--serviceaccount=kube-system:tiller
ನೇಮ್ಸ್ಪೇಸ್ನಲ್ಲಿ ಟಿಲ್ಲರ್ ಅನ್ನು ವಿಸ್ತರಿಸಿ kube-system
:
helm init --service-account tiller
ಹೆಲ್ಮ್ ಮತ್ತು ಟಿಲ್ಲರ್ ನಡುವೆ SSL ಅನ್ನು ಬಳಸುವುದನ್ನು ನೀವು ಪರಿಗಣಿಸಬೇಕು. ನಿಮ್ಮ ಹೆಲ್ಮ್ ಸ್ಥಾಪನೆಯನ್ನು ರಕ್ಷಿಸುವ ಕುರಿತು ಹೆಚ್ಚಿನ ಮಾಹಿತಿಗಾಗಿ, ನೋಡಿ
ಸೆಟ್ಟಿಂಗ್ಗಳನ್ನು ದೃಢೀಕರಿಸಿ:
kubectl -n istio-system get svc
ಕೆಲವು ಸೆಕೆಂಡುಗಳ ನಂತರ, GCP ಸೇವೆಗಾಗಿ ಬಾಹ್ಯ IP ವಿಳಾಸವನ್ನು ನಿಯೋಜಿಸಬೇಕು istio-ingressgateway
.
ಇಸ್ಟಿಯೊ ಪ್ರವೇಶ ಗೇಟ್ವೇ ಅನ್ನು ಕಾನ್ಫಿಗರ್ ಮಾಡಲಾಗುತ್ತಿದೆ
ಹೆಸರಿನೊಂದಿಗೆ ಸ್ಥಿರ IP ವಿಳಾಸವನ್ನು ರಚಿಸಿ istio-gateway
ಇಸ್ಟಿಯೊ ಗೇಟ್ವೇಯ IP ವಿಳಾಸವನ್ನು ಬಳಸುವುದು:
export GATEWAY_IP=$(kubectl -n istio-system get svc/istio-ingressgateway -ojson | jq -r .status.loadBalancer.ingress[0].ip)
gcloud compute addresses create istio-gateway --addresses ${GATEWAY_IP} --region us-central1
ಈಗ ನಿಮಗೆ ಇಂಟರ್ನೆಟ್ ಡೊಮೇನ್ ಮತ್ತು ನಿಮ್ಮ DNS ರಿಜಿಸ್ಟ್ರಾರ್ಗೆ ಪ್ರವೇಶದ ಅಗತ್ಯವಿದೆ. ಎರಡು A ದಾಖಲೆಗಳನ್ನು ಸೇರಿಸಿ (ಬದಲಿಯಾಗಿ example.com
ನಿಮ್ಮ ಡೊಮೇನ್ಗೆ):
istio.example.com A ${GATEWAY_IP}
*.istio.example.com A ${GATEWAY_IP}
DNS ವೈಲ್ಡ್ಕಾರ್ಡ್ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತಿದೆಯೇ ಎಂದು ಪರಿಶೀಲಿಸಿ:
watch host test.istio.example.com
HTTP ಮೂಲಕ ಸೇವಾ ಜಾಲರಿಯ ಹೊರಗೆ ಸೇವೆಗಳನ್ನು ಒದಗಿಸಲು ಜೆನೆರಿಕ್ ಇಸ್ಟಿಯೊ ಗೇಟ್ವೇ ರಚಿಸಿ:
apiVersion: networking.istio.io/v1alpha3
kind: Gateway
metadata:
name: public-gateway
namespace: istio-system
spec:
selector:
istio: ingressgateway
servers:
- port:
number: 80
name: http
protocol: HTTP
hosts:
- "*"
ಮೇಲಿನ ಸಂಪನ್ಮೂಲವನ್ನು public-gateway.yaml ಎಂದು ಉಳಿಸಿ ಮತ್ತು ನಂತರ ಅದನ್ನು ಅನ್ವಯಿಸಿ:
kubectl apply -f ./public-gateway.yaml
SSL ಇಲ್ಲದೆ ಯಾವುದೇ ಉತ್ಪಾದನಾ ವ್ಯವಸ್ಥೆಯು ಇಂಟರ್ನೆಟ್ನಲ್ಲಿ ಸೇವೆಗಳನ್ನು ಒದಗಿಸಬಾರದು. ಸರ್ಟ್-ಮ್ಯಾನೇಜರ್, ಕ್ಲೌಡ್ಡಿಎನ್ಎಸ್ ಮತ್ತು ಲೆಟ್ಸ್ ಎನ್ಕ್ರಿಪ್ಟ್ನೊಂದಿಗೆ ಇಸ್ಟಿಯೊ ಪ್ರವೇಶ ಗೇಟ್ವೇ ಅನ್ನು ಸುರಕ್ಷಿತಗೊಳಿಸಲು, ದಯವಿಟ್ಟು ಓದಿ
ಫ್ಲ್ಯಾಗರ್ ಸ್ಥಾಪನೆ
GKE Istio ಆಡ್-ಆನ್ Istio ಟೆಲಿಮೆಟ್ರಿ ಸೇವೆಯನ್ನು ಸ್ವಚ್ಛಗೊಳಿಸುವ Prometheus ನಿದರ್ಶನವನ್ನು ಒಳಗೊಂಡಿಲ್ಲ. ಕ್ಯಾನರಿ ವಿಶ್ಲೇಷಣೆಯನ್ನು ನಿರ್ವಹಿಸಲು ಫ್ಲ್ಯಾಗರ್ ಇಸ್ಟಿಯೊ ಎಚ್ಟಿಟಿಪಿ ಮೆಟ್ರಿಕ್ಗಳನ್ನು ಬಳಸುವುದರಿಂದ, ಅಧಿಕೃತ ಇಸ್ಟಿಯೊ ಹೆಲ್ಮ್ ಸ್ಕೀಮಾದೊಂದಿಗೆ ಬರುವಂತೆಯೇ ನೀವು ಈ ಕೆಳಗಿನ ಪ್ರೊಮೆಥಿಯಸ್ ಕಾನ್ಫಿಗರೇಶನ್ ಅನ್ನು ನಿಯೋಜಿಸಬೇಕಾಗುತ್ತದೆ.
REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/gke/istio-prometheus.yaml
ಫ್ಲ್ಯಾಗರ್ ಹೆಲ್ಮ್ ರೆಪೊಸಿಟರಿಯನ್ನು ಸೇರಿಸಿ:
helm repo add flagger [https://flagger.app](https://flagger.app/)
ಫ್ಲ್ಯಾಗರ್ ಅನ್ನು ನೇಮ್ಸ್ಪೇಸ್ಗೆ ವಿಸ್ತರಿಸಿ istio-system
ಸ್ಲಾಕ್ ಅಧಿಸೂಚನೆಗಳನ್ನು ಸಕ್ರಿಯಗೊಳಿಸುವ ಮೂಲಕ:
helm upgrade -i flagger flagger/flagger
--namespace=istio-system
--set metricsServer=http://prometheus.istio-system:9090
--set slack.url=https://hooks.slack.com/services/YOUR-WEBHOOK-ID
--set slack.channel=general
--set slack.user=flagger
ಪೋರ್ಟ್ 9090 ನಲ್ಲಿ ಇಸ್ಟಿಯೊ ಪ್ರೊಮೆಥಿಯಸ್ ಸೇವೆಯೊಂದಿಗೆ ಸಂವಹನ ನಡೆಸುವವರೆಗೆ ನೀವು ಯಾವುದೇ ನೇಮ್ಸ್ಪೇಸ್ನಲ್ಲಿ ಫ್ಲ್ಯಾಗರ್ ಅನ್ನು ಸ್ಥಾಪಿಸಬಹುದು.
ಕ್ಯಾನರಿ ವಿಶ್ಲೇಷಣೆಗಾಗಿ ಫ್ಲ್ಯಾಗರ್ ಗ್ರಾಫನಾ ಡ್ಯಾಶ್ಬೋರ್ಡ್ ಅನ್ನು ಹೊಂದಿದೆ. ನೇಮ್ಸ್ಪೇಸ್ನಲ್ಲಿ ಗ್ರಾಫನಾವನ್ನು ಸ್ಥಾಪಿಸಿ istio-system
:
helm upgrade -i flagger-grafana flagger/grafana
--namespace=istio-system
--set url=http://prometheus.istio-system:9090
--set user=admin
--set password=change-me
ವರ್ಚುವಲ್ ಸೇವೆಯನ್ನು ರಚಿಸುವ ಮೂಲಕ ತೆರೆದ ಗೇಟ್ವೇ ಮೂಲಕ ಗ್ರಾಫಾನಾವನ್ನು ಬಹಿರಂಗಪಡಿಸಿ (ಬದಲಿಯಾಗಿ example.com
ನಿಮ್ಮ ಡೊಮೇನ್ಗೆ):
apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
name: grafana
namespace: istio-system
spec:
hosts:
- "grafana.istio.example.com"
gateways:
- public-gateway.istio-system.svc.cluster.local
http:
- route:
- destination:
host: flagger-grafana
ಮೇಲಿನ ಸಂಪನ್ಮೂಲವನ್ನು grafana-virtual-service.yaml ಎಂದು ಉಳಿಸಿ ಮತ್ತು ನಂತರ ಅದನ್ನು ಅನ್ವಯಿಸಿ:
kubectl apply -f ./grafana-virtual-service.yaml
ಗೆ ಚಲಿಸುವಾಗ http://grafana.istio.example.com
ಬ್ರೌಸರ್ನಲ್ಲಿ, ನಿಮ್ಮನ್ನು ಗ್ರಾಫನಾ ಲಾಗಿನ್ ಪುಟಕ್ಕೆ ನಿರ್ದೇಶಿಸಬೇಕು.
ಫ್ಲ್ಯಾಗರ್ನೊಂದಿಗೆ ವೆಬ್ ಅಪ್ಲಿಕೇಶನ್ಗಳನ್ನು ನಿಯೋಜಿಸಲಾಗುತ್ತಿದೆ
ಫ್ಲ್ಯಾಗರ್ ಕುಬರ್ನೆಟ್ಸ್ ಅನ್ನು ನಿಯೋಜಿಸುತ್ತದೆ ಮತ್ತು ಐಚ್ಛಿಕವಾಗಿ ಸ್ವಯಂಚಾಲಿತವಾಗಿ (HPA), ನಂತರ ವಸ್ತುಗಳ ಸರಣಿಯನ್ನು ರಚಿಸುತ್ತದೆ (ಕುಬರ್ನೆಟ್ಸ್ ನಿಯೋಜನೆಗಳು, ಕ್ಲಸ್ಟರ್ಐಪಿ ಸೇವೆಗಳು ಮತ್ತು ಇಸ್ಟಿಯೊ ವರ್ಚುವಲ್ ಸೇವೆಗಳು). ಈ ವಸ್ತುಗಳು ಅಪ್ಲಿಕೇಶನ್ ಅನ್ನು ಸೇವಾ ಜಾಲರಿಗೆ ಒಡ್ಡುತ್ತವೆ ಮತ್ತು ಕ್ಯಾನರಿ ವಿಶ್ಲೇಷಣೆ ಮತ್ತು ಪ್ರಗತಿಯನ್ನು ನಿಯಂತ್ರಿಸುತ್ತವೆ.
ಇಸ್ಟಿಯೊ ಸೈಡ್ಕಾರ್ ಇಂಜೆಕ್ಷನ್ ಅನ್ನು ಸಕ್ರಿಯಗೊಳಿಸಿದ ಪರೀಕ್ಷಾ ನೇಮ್ಸ್ಪೇಸ್ ಅನ್ನು ರಚಿಸಿ:
REPO=https://raw.githubusercontent.com/stefanprodan/flagger/master
kubectl apply -f ${REPO}/artifacts/namespaces/test.yaml
ನಿಯೋಜನೆ ಮತ್ತು ಪಾಡ್ ಸ್ವಯಂಚಾಲಿತ ಸ್ಕೇಲ್-ಔಟ್ ಟೂಲ್ ಅನ್ನು ರಚಿಸಿ:
kubectl apply -f ${REPO}/artifacts/canaries/deployment.yaml
kubectl apply -f ${REPO}/artifacts/canaries/hpa.yaml
ಕ್ಯಾನರಿ ವಿಶ್ಲೇಷಣೆಯ ಸಮಯದಲ್ಲಿ ಟ್ರಾಫಿಕ್ ಅನ್ನು ಉತ್ಪಾದಿಸಲು ಪರೀಕ್ಷಾ ಲೋಡ್ ಸೇವೆಯನ್ನು ನಿಯೋಜಿಸಿ:
helm upgrade -i flagger-loadtester flagger/loadtester
--namepace=test
ಕಸ್ಟಮ್ ಕ್ಯಾನರಿ ಸಂಪನ್ಮೂಲವನ್ನು ರಚಿಸಿ (ಬದಲಿಯಾಗಿ example.com
ನಿಮ್ಮ ಡೊಮೇನ್ಗೆ):
apiVersion: flagger.app/v1alpha3
kind: Canary
metadata:
name: podinfo
namespace: test
spec:
targetRef:
apiVersion: apps/v1
kind: Deployment
name: podinfo
progressDeadlineSeconds: 60
autoscalerRef:
apiVersion: autoscaling/v2beta1
kind: HorizontalPodAutoscaler
name: podinfo
service:
port: 9898
gateways:
- public-gateway.istio-system.svc.cluster.local
hosts:
- app.istio.example.com
canaryAnalysis:
interval: 30s
threshold: 10
maxWeight: 50
stepWeight: 5
metrics:
- name: istio_requests_total
threshold: 99
interval: 30s
- name: istio_request_duration_seconds_bucket
threshold: 500
interval: 30s
webhooks:
- name: load-test
url: http://flagger-loadtester.test/
timeout: 5s
metadata:
cmd: "hey -z 1m -q 10 -c 2 http://podinfo.test:9898/"
ಮೇಲಿನ ಸಂಪನ್ಮೂಲವನ್ನು podinfo-canary.yaml ಎಂದು ಉಳಿಸಿ ಮತ್ತು ನಂತರ ಅದನ್ನು ಅನ್ವಯಿಸಿ:
kubectl apply -f ./podinfo-canary.yaml
ಮೇಲಿನ ವಿಶ್ಲೇಷಣೆಯು ಯಶಸ್ವಿಯಾದರೆ, ಐದು ನಿಮಿಷಗಳ ಕಾಲ ರನ್ ಆಗುತ್ತದೆ, ಪ್ರತಿ ಅರ್ಧ ನಿಮಿಷಕ್ಕೆ HTTP ಮೆಟ್ರಿಕ್ಗಳನ್ನು ಪರಿಶೀಲಿಸುತ್ತದೆ. ಕೆಳಗಿನ ಸೂತ್ರವನ್ನು ಬಳಸಿಕೊಂಡು ಕ್ಯಾನರಿ ನಿಯೋಜನೆಯನ್ನು ಮೌಲ್ಯೀಕರಿಸಲು ಮತ್ತು ಉತ್ತೇಜಿಸಲು ಅಗತ್ಯವಿರುವ ಕನಿಷ್ಠ ಸಮಯವನ್ನು ನೀವು ನಿರ್ಧರಿಸಬಹುದು: interval * (maxWeight / stepWeight)
. ಕ್ಯಾನರಿ CRD ಕ್ಷೇತ್ರಗಳನ್ನು ದಾಖಲಿಸಲಾಗಿದೆ
ಒಂದೆರಡು ಸೆಕೆಂಡುಗಳ ನಂತರ, ಫ್ಲ್ಯಾಗರ್ ಕ್ಯಾನರಿ ವಸ್ತುಗಳನ್ನು ರಚಿಸುತ್ತದೆ:
# applied
deployment.apps/podinfo
horizontalpodautoscaler.autoscaling/podinfo
canary.flagger.app/podinfo
# generated
deployment.apps/podinfo-primary
horizontalpodautoscaler.autoscaling/podinfo-primary
service/podinfo
service/podinfo-canary
service/podinfo-primary
virtualservice.networking.istio.io/podinfo
ಬ್ರೌಸರ್ ತೆರೆಯಿರಿ ಮತ್ತು ಹೋಗಿ app.istio.example.com
, ನೀವು ಆವೃತ್ತಿ ಸಂಖ್ಯೆಯನ್ನು ನೋಡಬೇಕು
ಸ್ವಯಂಚಾಲಿತ ಕ್ಯಾನರಿ ವಿಶ್ಲೇಷಣೆ ಮತ್ತು ಪ್ರಚಾರ
ಫ್ಲ್ಯಾಗರ್ ನಿಯಂತ್ರಣ ಲೂಪ್ ಅನ್ನು ಕಾರ್ಯಗತಗೊಳಿಸುತ್ತದೆ, ಅದು HTTP ವಿನಂತಿಯ ಯಶಸ್ಸಿನ ದರ, ಸರಾಸರಿ ವಿನಂತಿಯ ಅವಧಿ ಮತ್ತು ಪಾಡ್ ಆರೋಗ್ಯದಂತಹ ಪ್ರಮುಖ ಕಾರ್ಯಕ್ಷಮತೆಯ ಮೆಟ್ರಿಕ್ಗಳನ್ನು ಅಳೆಯುವಾಗ ಕ್ರಮೇಣ ಟ್ರಾಫಿಕ್ ಅನ್ನು ಕ್ಯಾನರಿಗೆ ಚಲಿಸುತ್ತದೆ. KPI ವಿಶ್ಲೇಷಣೆಯ ಆಧಾರದ ಮೇಲೆ, ಕ್ಯಾನರಿಯನ್ನು ಉತ್ತೇಜಿಸಲಾಗುತ್ತದೆ ಅಥವಾ ಅಡ್ಡಿಪಡಿಸಲಾಗುತ್ತದೆ ಮತ್ತು ವಿಶ್ಲೇಷಣೆಯ ಫಲಿತಾಂಶಗಳನ್ನು ಸ್ಲಾಕ್ಗೆ ಪ್ರಕಟಿಸಲಾಗುತ್ತದೆ.
ಕೆಳಗಿನ ವಸ್ತುಗಳಲ್ಲಿ ಒಂದನ್ನು ಬದಲಾಯಿಸಿದಾಗ ಕ್ಯಾನರಿ ನಿಯೋಜನೆಯನ್ನು ಪ್ರಚೋದಿಸಲಾಗುತ್ತದೆ:
- PodSpec ಅನ್ನು ನಿಯೋಜಿಸಿ (ಕಂಟೇನರ್ ಇಮೇಜ್, ಕಮಾಂಡ್, ಪೋರ್ಟ್ಗಳು, env, ಇತ್ಯಾದಿ)
- ಕಾನ್ಫಿಗ್ಮ್ಯಾಪ್ಗಳನ್ನು ವಾಲ್ಯೂಮ್ಗಳಾಗಿ ಅಳವಡಿಸಲಾಗಿದೆ ಅಥವಾ ಪರಿಸರ ವೇರಿಯಬಲ್ಗಳಿಗೆ ಮ್ಯಾಪ್ ಮಾಡಲಾಗಿದೆ
- ರಹಸ್ಯಗಳನ್ನು ಪರಿಮಾಣಗಳಾಗಿ ಜೋಡಿಸಲಾಗಿದೆ ಅಥವಾ ಪರಿಸರ ವೇರಿಯಬಲ್ಗಳಾಗಿ ಪರಿವರ್ತಿಸಲಾಗುತ್ತದೆ
ಕಂಟೇನರ್ ಚಿತ್ರವನ್ನು ನವೀಕರಿಸುವಾಗ ಕ್ಯಾನರಿ ನಿಯೋಜನೆಯನ್ನು ರನ್ ಮಾಡಿ:
kubectl -n test set image deployment/podinfo
podinfod=quay.io/stefanprodan/podinfo:1.4.1
ನಿಯೋಜನೆ ಆವೃತ್ತಿಯು ಬದಲಾಗಿದೆ ಎಂದು ಫ್ಲ್ಯಾಗರ್ ಪತ್ತೆ ಮಾಡುತ್ತದೆ ಮತ್ತು ಅದನ್ನು ಪಾರ್ಸ್ ಮಾಡಲು ಪ್ರಾರಂಭಿಸುತ್ತದೆ:
kubectl -n test describe canary/podinfo
Events:
New revision detected podinfo.test
Scaling up podinfo.test
Waiting for podinfo.test rollout to finish: 0 of 1 updated replicas are available
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Advance podinfo.test canary weight 20
Advance podinfo.test canary weight 25
Advance podinfo.test canary weight 30
Advance podinfo.test canary weight 35
Advance podinfo.test canary weight 40
Advance podinfo.test canary weight 45
Advance podinfo.test canary weight 50
Copying podinfo.test template spec to podinfo-primary.test
Waiting for podinfo-primary.test rollout to finish: 1 of 2 updated replicas are available
Promotion completed! Scaling down podinfo.test
ವಿಶ್ಲೇಷಣೆಯ ಸಮಯದಲ್ಲಿ, ಗ್ರಾಫನಾವನ್ನು ಬಳಸಿಕೊಂಡು ಕ್ಯಾನರಿ ಫಲಿತಾಂಶಗಳನ್ನು ಟ್ರ್ಯಾಕ್ ಮಾಡಬಹುದು:
ಕ್ಯಾನರಿ ವಿಶ್ಲೇಷಣೆಯ ಸಮಯದಲ್ಲಿ ನಿಯೋಜನೆಗೆ ಹೊಸ ಬದಲಾವಣೆಗಳನ್ನು ಅನ್ವಯಿಸಿದರೆ, ಫ್ಲ್ಯಾಗರ್ ವಿಶ್ಲೇಷಣೆ ಹಂತವನ್ನು ಮರುಪ್ರಾರಂಭಿಸುತ್ತದೆ ಎಂಬುದನ್ನು ದಯವಿಟ್ಟು ಗಮನಿಸಿ.
ನಿಮ್ಮ ಕ್ಲಸ್ಟರ್ನಲ್ಲಿರುವ ಎಲ್ಲಾ ಕ್ಯಾನರಿಗಳ ಪಟ್ಟಿಯನ್ನು ಮಾಡಿ:
watch kubectl get canaries --all-namespaces
NAMESPACE NAME STATUS WEIGHT LASTTRANSITIONTIME
test podinfo Progressing 15 2019-01-16T14:05:07Z
prod frontend Succeeded 0 2019-01-15T16:15:07Z
prod backend Failed 0 2019-01-14T17:05:07Z
ನೀವು ಸ್ಲಾಕ್ ಅಧಿಸೂಚನೆಗಳನ್ನು ಸಕ್ರಿಯಗೊಳಿಸಿದ್ದರೆ, ನೀವು ಈ ಕೆಳಗಿನ ಸಂದೇಶಗಳನ್ನು ಸ್ವೀಕರಿಸುತ್ತೀರಿ:
ಸ್ವಯಂಚಾಲಿತ ರೋಲ್ಬ್ಯಾಕ್
ಕ್ಯಾನರಿ ವಿಶ್ಲೇಷಣೆಯ ಸಮಯದಲ್ಲಿ, ಫ್ಲ್ಯಾಗರ್ ನಿಯೋಜನೆಯನ್ನು ನಿಲ್ಲಿಸುತ್ತದೆಯೇ ಎಂದು ನೋಡಲು ನೀವು ಸಂಶ್ಲೇಷಿತ HTTP 500 ದೋಷಗಳು ಮತ್ತು ಹೆಚ್ಚಿನ ಪ್ರತಿಕ್ರಿಯೆ ಸುಪ್ತತೆಯನ್ನು ರಚಿಸಬಹುದು.
ಪರೀಕ್ಷಾ ಪಾಡ್ ಅನ್ನು ರಚಿಸಿ ಮತ್ತು ಅದರಲ್ಲಿ ಈ ಕೆಳಗಿನವುಗಳನ್ನು ಮಾಡಿ:
kubectl -n test run tester
--image=quay.io/stefanprodan/podinfo:1.2.1
-- ./podinfo --port=9898
kubectl -n test exec -it tester-xx-xx sh
HTTP 500 ದೋಷಗಳನ್ನು ರಚಿಸಲಾಗುತ್ತಿದೆ:
watch curl http://podinfo-canary:9898/status/500
ವಿಳಂಬ ಉತ್ಪಾದನೆ:
watch curl http://podinfo-canary:9898/delay/1
ವಿಫಲವಾದ ಚೆಕ್ಗಳ ಸಂಖ್ಯೆಯು ಮಿತಿಯನ್ನು ತಲುಪಿದಾಗ, ಸಂಚಾರವನ್ನು ಪ್ರಾಥಮಿಕ ಚಾನಲ್ಗೆ ಹಿಂತಿರುಗಿಸಲಾಗುತ್ತದೆ, ಕ್ಯಾನರಿಯನ್ನು ಶೂನ್ಯಕ್ಕೆ ಅಳೆಯಲಾಗುತ್ತದೆ ಮತ್ತು ನಿಯೋಜನೆಯು ವಿಫಲವಾಗಿದೆ ಎಂದು ಗುರುತಿಸಲಾಗುತ್ತದೆ.
ಕ್ಯಾನರಿ ದೋಷಗಳು ಮತ್ತು ಲೇಟೆನ್ಸಿ ಸ್ಪೈಕ್ಗಳನ್ನು ಕುಬರ್ನೆಟ್ಸ್ ಈವೆಂಟ್ಗಳಾಗಿ ಲಾಗ್ ಮಾಡಲಾಗಿದೆ ಮತ್ತು JSON ಫಾರ್ಮ್ಯಾಟ್ನಲ್ಲಿ ಫ್ಲ್ಯಾಗರ್ ಮೂಲಕ ಲಾಗ್ ಮಾಡಲಾಗಿದೆ:
kubectl -n istio-system logs deployment/flagger -f | jq .msg
Starting canary deployment for podinfo.test
Advance podinfo.test canary weight 5
Advance podinfo.test canary weight 10
Advance podinfo.test canary weight 15
Halt podinfo.test advancement success rate 69.17% < 99%
Halt podinfo.test advancement success rate 61.39% < 99%
Halt podinfo.test advancement success rate 55.06% < 99%
Halt podinfo.test advancement success rate 47.00% < 99%
Halt podinfo.test advancement success rate 37.00% < 99%
Halt podinfo.test advancement request duration 1.515s > 500ms
Halt podinfo.test advancement request duration 1.600s > 500ms
Halt podinfo.test advancement request duration 1.915s > 500ms
Halt podinfo.test advancement request duration 2.050s > 500ms
Halt podinfo.test advancement request duration 2.515s > 500ms
Rolling back podinfo.test failed checks threshold reached 10
Canary failed! Scaling down podinfo.test
ನೀವು ಸ್ಲಾಕ್ ಅಧಿಸೂಚನೆಗಳನ್ನು ಸಕ್ರಿಯಗೊಳಿಸಿದ್ದರೆ, ಗಡುವು ಮೀರಿದಾಗ ಅಥವಾ ವಿಶ್ಲೇಷಣೆಯಲ್ಲಿ ವಿಫಲವಾದ ಪರಿಶೀಲನೆಗಳ ಗರಿಷ್ಠ ಸಂಖ್ಯೆಯನ್ನು ತಲುಪಿದಾಗ ನೀವು ಸಂದೇಶವನ್ನು ಸ್ವೀಕರಿಸುತ್ತೀರಿ:
ತೀರ್ಮಾನಕ್ಕೆ
ಕುಬರ್ನೆಟ್ಸ್ ಜೊತೆಗೆ ಇಸ್ಟಿಯೊದಂತಹ ಸೇವಾ ಜಾಲರಿಯನ್ನು ನಡೆಸುವುದು ಸ್ವಯಂಚಾಲಿತ ಮೆಟ್ರಿಕ್ಗಳು, ಲಾಗ್ಗಳು ಮತ್ತು ಪ್ರೋಟೋಕಾಲ್ಗಳನ್ನು ಒದಗಿಸುತ್ತದೆ, ಆದರೆ ಕೆಲಸದ ಹೊರೆ ನಿಯೋಜನೆಯು ಇನ್ನೂ ಬಾಹ್ಯ ಪರಿಕರಗಳ ಮೇಲೆ ಅವಲಂಬಿತವಾಗಿರುತ್ತದೆ. ಇಸ್ಟಿಯೊ ಸಾಮರ್ಥ್ಯಗಳನ್ನು ಸೇರಿಸುವ ಮೂಲಕ ಫ್ಲ್ಯಾಗರ್ ಇದನ್ನು ಬದಲಾಯಿಸುವ ಗುರಿಯನ್ನು ಹೊಂದಿದೆ
ಫ್ಲ್ಯಾಗರ್ ಯಾವುದೇ ಕುಬರ್ನೆಟ್ಸ್ CI/CD ಪರಿಹಾರದೊಂದಿಗೆ ಹೊಂದಿಕೊಳ್ಳುತ್ತದೆ ಮತ್ತು ಕ್ಯಾನರಿ ವಿಶ್ಲೇಷಣೆಯನ್ನು ಸುಲಭವಾಗಿ ವಿಸ್ತರಿಸಬಹುದು
ಫ್ಲ್ಯಾಗರ್ ಬೆಂಬಲಿತವಾಗಿದೆ
ಫ್ಲ್ಯಾಗರ್ ಅನ್ನು ಸುಧಾರಿಸಲು ನೀವು ಸಲಹೆಗಳನ್ನು ಹೊಂದಿದ್ದರೆ, ದಯವಿಟ್ಟು GitHub ನಲ್ಲಿ ಸಮಸ್ಯೆ ಅಥವಾ PR ಅನ್ನು ಸಲ್ಲಿಸಿ
ಸಪಾಕ್ಸಿ
ಮೂಲ: www.habr.com