Bleu-Vert Déploiement au salaire minimum

Dans cet article, nous utilisons bash, ssh, docker и nginx Nous organiserons une mise en page transparente de l'application Web. Déploiement bleu-vert est une technique qui permet de mettre à jour instantanément une application sans rejeter une seule demande. Il s'agit de l'une des stratégies de déploiement sans temps d'arrêt et elle est la mieux adaptée aux applications comportant une seule instance, mais avec la possibilité de charger une deuxième instance prête à l'emploi à proximité.

Disons que vous disposez d'une application Web avec laquelle de nombreux clients travaillent activement et qu'il n'y a absolument aucun moyen pour elle de s'arrêter pendant quelques secondes. Et vous avez vraiment besoin de déployer une mise à jour de la bibliothèque, une correction de bug ou une nouvelle fonctionnalité intéressante. Dans une situation normale, vous devrez arrêter l'application, la remplacer et la redémarrer. Dans le cas de Docker, vous pouvez d'abord le remplacer, puis le redémarrer, mais il y aura toujours une période pendant laquelle les demandes adressées à l'application ne seront pas traitées, car généralement l'application prend un certain temps à se charger initialement. Que se passe-t-il s'il démarre mais s'avère inutilisable ? C’est là le problème, résolvons-le avec un minimum de moyens et le plus élégamment possible.

AVIS DE NON-RESPONSABILITÉ : la majeure partie de l'article est présentée dans un format expérimental - sous la forme d'un enregistrement d'une session de console. Espérons que cela ne sera pas trop difficile à comprendre et que le code se documentera suffisamment. Pour l'atmosphère, imaginez qu'il ne s'agit pas simplement d'extraits de code, mais de papier provenant d'un télétype « en fer ».

Bleu-Vert Déploiement au salaire minimum

Des techniques intéressantes, difficiles à rechercher sur Google simplement en lisant le code, sont décrites au début de chaque section. Si quelque chose d'autre n'est pas clair, recherchez-le sur Google et vérifiez-le. expliquershell (heureusement, cela fonctionne à nouveau, grâce au déblocage du télégramme). Si vous ne trouvez rien sur Google, demandez dans les commentaires. Je me ferai un plaisir d'ajouter à la section correspondante « Techniques intéressantes ».

Commençons

$ mkdir blue-green-deployment && cd $_

Service

Créons un service expérimental et plaçons-le dans un conteneur.

Techniques intéressantes

  • cat << EOF > file-name (Ici Documenter + Redirection d'E/S) est un moyen de créer un fichier multiligne avec une seule commande. Tout ce que bash lit /dev/stdin après cette ligne et avant la ligne EOF sera enregistré dans file-name.
  • wget -qO- URL (expliquershell) — afficher un document reçu via HTTP vers /dev/stdout (analogue curl URL).

Imprimer

Je casse spécifiquement l'extrait pour activer la mise en évidence pour Python. A la fin, il y aura une autre pièce comme celle-ci. Considérez qu'à ces endroits, le papier était découpé pour être envoyé au service de surlignage (où le code était colorié à la main avec des surligneurs), puis ces morceaux étaient recollés.

$ cat << EOF > uptimer.py
from http.server import BaseHTTPRequestHandler, HTTPServer
from time import monotonic

app_version = 1
app_name = f'Uptimer v{app_version}.0'
loading_seconds = 15 - app_version * 5

class Handler(BaseHTTPRequestHandler):
    def do_GET(self):
        if self.path == '/':
            try:
                t = monotonic() - server_start
                if t < loading_seconds:
                    self.send_error(503)
                else:
                    self.send_response(200)
                    self.send_header('Content-Type', 'text/html')
                    self.end_headers()
                    response = f'<h2>{app_name} is running for {t:3.1f} seconds.</h2>n'
                    self.wfile.write(response.encode('utf-8'))
            except Exception:
                self.send_error(500)
        else:
            self.send_error(404)

httpd = HTTPServer(('', 8080), Handler)
server_start = monotonic()
print(f'{app_name} (loads in {loading_seconds} sec.) started.')
httpd.serve_forever()
EOF

$ cat << EOF > Dockerfile
FROM python:alpine
EXPOSE 8080
COPY uptimer.py app.py
CMD [ "python", "-u", "./app.py" ]
EOF

$ docker build --tag uptimer .
Sending build context to Docker daemon  39.42kB
Step 1/4 : FROM python:alpine
 ---> 8ecf5a48c789
Step 2/4 : EXPOSE 8080
 ---> Using cache
 ---> cf92d174c9d3
Step 3/4 : COPY uptimer.py app.py
 ---> a7fbb33d6b7e
Step 4/4 : CMD [ "python", "-u", "./app.py" ]
 ---> Running in 1906b4bd9fdf
Removing intermediate container 1906b4bd9fdf
 ---> c1655b996fe8
Successfully built c1655b996fe8
Successfully tagged uptimer:latest

$ docker run --rm --detach --name uptimer --publish 8080:8080 uptimer
8f88c944b8bf78974a5727070a94c76aa0b9bb2b3ecf6324b784e782614b2fbf

$ docker ps
CONTAINER ID        IMAGE               COMMAND                CREATED             STATUS              PORTS                    NAMES
8f88c944b8bf        uptimer             "python -u ./app.py"   3 seconds ago       Up 5 seconds        0.0.0.0:8080->8080/tcp   uptimer

$ docker logs uptimer
Uptimer v1.0 (loads in 10 sec.) started.

$ wget -qSO- http://localhost:8080
  HTTP/1.0 503 Service Unavailable
  Server: BaseHTTP/0.6 Python/3.8.3
  Date: Sat, 22 Aug 2020 19:52:40 GMT
  Connection: close
  Content-Type: text/html;charset=utf-8
  Content-Length: 484

$ wget -qSO- http://localhost:8080
  HTTP/1.0 200 OK
  Server: BaseHTTP/0.6 Python/3.8.3
  Date: Sat, 22 Aug 2020 19:52:45 GMT
  Content-Type: text/html
<h2>Uptimer v1.0 is running for 15.4 seconds.</h2>

$ docker rm --force uptimer
uptimer

Proxy inverse

Pour que notre application puisse changer inaperçue, il est nécessaire qu'il y ait devant elle une autre entité qui cachera son remplacement. Il pourrait s'agir d'un serveur Web nginx в mode proxy inverse. Un proxy inverse est établi entre le client et l'application. Il accepte les demandes des clients, les transmet à l'application et transmet les réponses de l'application aux clients.

L'application et le proxy inverse peuvent être liés dans Docker en utilisant réseau docker. Ainsi, le conteneur contenant l'application n'a même pas besoin de transférer un port sur le système hôte, ce qui permet à l'application d'être isolée au maximum des menaces externes.

Si le proxy inverse réside sur un autre hôte, vous devrez abandonner le réseau Docker et connecter l'application au proxy inverse via le réseau hôte, en redirigeant le port. приложения paramètre --publish, comme au premier démarrage et comme avec le proxy inverse.

Nous exécuterons le proxy inverse sur le port 80, car c'est exactement l'entité qui doit écouter le réseau externe. Si le port 80 est occupé sur votre hôte de test, modifiez le paramètre --publish 80:80 sur --publish ANY_FREE_PORT:80.

Techniques intéressantes

Imprimer

$ docker network create web-gateway
5dba128fb3b255b02ac012ded1906b7b4970b728fb7db3dbbeccc9a77a5dd7bd

$ docker run --detach --rm --name uptimer --network web-gateway uptimer
a1105f1b583dead9415e99864718cc807cc1db1c763870f40ea38bc026e2d67f

$ docker run --rm --network web-gateway alpine wget -qO- http://uptimer:8080
<h2>Uptimer v1.0 is running for 11.5 seconds.</h2>

$ docker run --detach --publish 80:80 --network web-gateway --name reverse-proxy nginx:alpine
80695a822c19051260c66bf60605dcb4ea66802c754037704968bc42527bf120

$ docker ps
CONTAINER ID        IMAGE               COMMAND                  CREATED              STATUS              PORTS                NAMES
80695a822c19        nginx:alpine        "/docker-entrypoint.…"   27 seconds ago       Up 25 seconds       0.0.0.0:80->80/tcp   reverse-proxy
a1105f1b583d        uptimer             "python -u ./app.py"     About a minute ago   Up About a minute   8080/tcp             uptimer

$ cat << EOF > uptimer.conf
server {
    listen 80;
    location / {
        proxy_pass http://uptimer:8080;
    }
}
EOF

$ docker cp ./uptimer.conf reverse-proxy:/etc/nginx/conf.d/default.conf

$ docker exec reverse-proxy nginx -s reload
2020/06/23 20:51:03 [notice] 31#31: signal process started

$ wget -qSO- http://localhost
  HTTP/1.1 200 OK
  Server: nginx/1.19.0
  Date: Sat, 22 Aug 2020 19:56:24 GMT
  Content-Type: text/html
  Transfer-Encoding: chunked
  Connection: keep-alive
<h2>Uptimer v1.0 is running for 104.1 seconds.</h2>

Déploiement transparent

Déployons une nouvelle version de l'application (avec une double amélioration des performances de démarrage) et essayons de la déployer de manière transparente.

Techniques intéressantes

  • echo 'my text' | docker exec -i my-container sh -c 'cat > /my-file.txt' — Écrire du texte my text déposer /my-file.txt à l'intérieur du conteneur my-container.
  • cat > /my-file.txt — Écrire le contenu de l'entrée standard dans un fichier /dev/stdin.

Imprimer

$ sed -i "s/app_version = 1/app_version = 2/" uptimer.py

$ docker build --tag uptimer .
Sending build context to Docker daemon  39.94kB
Step 1/4 : FROM python:alpine
 ---> 8ecf5a48c789
Step 2/4 : EXPOSE 8080
 ---> Using cache
 ---> cf92d174c9d3
Step 3/4 : COPY uptimer.py app.py
 ---> 3eca6a51cb2d
Step 4/4 : CMD [ "python", "-u", "./app.py" ]
 ---> Running in 8f13c6d3d9e7
Removing intermediate container 8f13c6d3d9e7
 ---> 1d56897841ec
Successfully built 1d56897841ec
Successfully tagged uptimer:latest

$ docker run --detach --rm --name uptimer_BLUE --network web-gateway uptimer
96932d4ca97a25b1b42d1b5f0ede993b43f95fac3c064262c5c527e16c119e02

$ docker logs uptimer_BLUE
Uptimer v2.0 (loads in 5 sec.) started.

$ docker run --rm --network web-gateway alpine wget -qO- http://uptimer_BLUE:8080
<h2>Uptimer v2.0 is running for 23.9 seconds.</h2>

$ sed s/uptimer/uptimer_BLUE/ uptimer.conf | docker exec --interactive reverse-proxy sh -c 'cat > /etc/nginx/conf.d/default.conf'

$ docker exec reverse-proxy cat /etc/nginx/conf.d/default.conf
server {
    listen 80;
    location / {
        proxy_pass http://uptimer_BLUE:8080;
    }
}

$ docker exec reverse-proxy nginx -s reload
2020/06/25 21:22:23 [notice] 68#68: signal process started

$ wget -qO- http://localhost
<h2>Uptimer v2.0 is running for 63.4 seconds.</h2>

$ docker rm -f uptimer
uptimer

$ wget -qO- http://localhost
<h2>Uptimer v2.0 is running for 84.8 seconds.</h2>

$ docker ps
CONTAINER ID        IMAGE               COMMAND                  CREATED              STATUS              PORTS                NAMES
96932d4ca97a        uptimer             "python -u ./app.py"     About a minute ago   Up About a minute   8080/tcp             uptimer_BLUE
80695a822c19        nginx:alpine        "/docker-entrypoint.…"   8 minutes ago        Up 8 minutes        0.0.0.0:80->80/tcp   reverse-proxy

A ce stade, l'image est construite directement sur le serveur, ce qui nécessite la présence des sources de l'application, et charge également le serveur de travail inutile. L'étape suivante consiste à allouer l'assemblage d'images à une machine distincte (par exemple, à un système CI), puis à le transférer vers le serveur.

Transfert d'images

Malheureusement, cela n'a pas de sens de transférer des images de localhost à localhost, cette section ne peut donc être explorée que si vous disposez de deux hôtes avec Docker. Au minimum, cela ressemble à ceci :

$ ssh production-server docker image ls
REPOSITORY          TAG                 IMAGE ID            CREATED             SIZE

$ docker image save uptimer | ssh production-server 'docker image load'
Loaded image: uptimer:latest

$ ssh production-server docker image ls
REPOSITORY          TAG                 IMAGE ID            CREATED             SIZE
uptimer             latest              1d56897841ec        5 minutes ago       78.9MB

Équipe docker save enregistre les données d'image dans une archive .tar, ce qui signifie qu'elles pèsent environ 1.5 fois plus que ce qu'elles pèseraient sous forme compressée. Alors faisons-le au nom du gain de temps et du trafic :

$ docker image save uptimer | gzip | ssh production-server 'zcat | docker image load'
Loaded image: uptimer:latest

Vous pouvez également surveiller le processus de téléchargement (bien que cela nécessite un utilitaire tiers) :

$ docker image save uptimer | gzip | pv | ssh production-server 'zcat | docker image load'
25,7MiB 0:01:01 [ 425KiB/s] [                   <=>    ]
Loaded image: uptimer:latest

Astuce : Si vous avez besoin de nombreux paramètres pour vous connecter à un serveur via SSH, vous n'utilisez peut-être pas le fichier ~/.ssh/config.

Transfert de l'image via docker image save/load - C'est la méthode la plus minimaliste, mais pas la seule. Il y en a d'autres :

  1. Container Registry (norme industrielle).
  2. Connectez-vous au serveur démon Docker à partir d'un autre hôte :
    1. variable d'environnement DOCKER_HOST.
    2. Option de ligne de commande -H ou --host instrument docker-compose.
    3. docker context

La deuxième méthode (avec trois options pour sa mise en œuvre) est bien décrite dans l'article Comment déployer sur des hôtes Docker distants avec docker-compose.

deploy.sh

Rassemblons maintenant tout ce que nous avons fait manuellement dans un seul script. Commençons par la fonction de niveau supérieur, puis examinons les autres fonctions utilisées.

Techniques intéressantes

  • ${parameter?err_msg} - l'un des sorts magiques bash (alias substitution de paramètre). Si un parameter non spécifié, sortie err_msg et sortez avec le code 1.
  • docker --log-driver journald — par défaut, le pilote de journalisation Docker est un fichier texte sans aucune rotation. Avec cette approche, les journaux remplissent rapidement tout le disque, donc pour un environnement de production, il est nécessaire de remplacer le pilote par un pilote plus intelligent.

Script de déploiement

deploy() {
    local usage_msg="Usage: ${FUNCNAME[0]} image_name"
    local image_name=${1?$usage_msg}

    ensure-reverse-proxy || return 2
    if get-active-slot $image_name
    then
        local OLD=${image_name}_BLUE
        local new_slot=GREEN
    else
        local OLD=${image_name}_GREEN
        local new_slot=BLUE
    fi
    local NEW=${image_name}_${new_slot}
    echo "Deploying '$NEW' in place of '$OLD'..."
    docker run 
        --detach 
        --restart always 
        --log-driver journald 
        --name $NEW 
        --network web-gateway 
        $image_name || return 3
    echo "Container started. Checking health..."
    for i in {1..20}
    do
        sleep 1
        if get-service-status $image_name $new_slot
        then
            echo "New '$NEW' service seems OK. Switching heads..."
            sleep 2  # Ensure service is ready
            set-active-slot $image_name $new_slot || return 4
            echo "'$NEW' service is live!"
            sleep 2  # Ensure all requests were processed
            echo "Killing '$OLD'..."
            docker rm -f $OLD
            docker image prune -f
            echo "Deployment successful!"
            return 0
        fi
        echo "New '$NEW' service is not ready yet. Waiting ($i)..."
    done
    echo "New '$NEW' service did not raise, killing it. Failed to deploy T_T"
    docker rm -f $NEW
    return 5
}

Fonctionnalités utilisées :

  • ensure-reverse-proxy — S'assure que le proxy inverse fonctionne (utile pour le premier déploiement)
  • get-active-slot service_name — Détermine quel créneau est actuellement actif pour un service donné (BLUE ou GREEN)
  • get-service-status service_name deployment_slot — Détermine si le service est prêt à traiter les demandes entrantes
  • set-active-slot service_name deployment_slot — Modifie la configuration nginx dans le conteneur de proxy inverse

Dans l'ordre:

ensure-reverse-proxy() {
    is-container-up reverse-proxy && return 0
    echo "Deploying reverse-proxy..."
    docker network create web-gateway
    docker run 
        --detach 
        --restart always 
        --log-driver journald 
        --name reverse-proxy 
        --network web-gateway 
        --publish 80:80 
        nginx:alpine || return 1
    docker exec --interactive reverse-proxy sh -c "> /etc/nginx/conf.d/default.conf"
    docker exec reverse-proxy nginx -s reload
}

is-container-up() {
    local container=${1?"Usage: ${FUNCNAME[0]} container_name"}

    [ -n "$(docker ps -f name=${container} -q)" ]
    return $?
}

get-active-slot() {
    local service=${1?"Usage: ${FUNCNAME[0]} service_name"}

    if is-container-up ${service}_BLUE && is-container-up ${service}_GREEN; then
        echo "Collision detected! Stopping ${service}_GREEN..."
        docker rm -f ${service}_GREEN
        return 0  # BLUE
    fi
    if is-container-up ${service}_BLUE && ! is-container-up ${service}_GREEN; then
        return 0  # BLUE
    fi
    if ! is-container-up ${service}_BLUE; then
        return 1  # GREEN
    fi
}

get-service-status() {
    local usage_msg="Usage: ${FUNCNAME[0]} service_name deployment_slot"
    local service=${1?usage_msg}
    local slot=${2?$usage_msg}

    case $service in
        # Add specific healthcheck paths for your services here
        *) local health_check_port_path=":8080/" ;;
    esac
    local health_check_address="http://${service}_${slot}${health_check_port_path}"
    echo "Requesting '$health_check_address' within the 'web-gateway' docker network:"
    docker run --rm --network web-gateway alpine 
        wget --timeout=1 --quiet --server-response $health_check_address
    return $?
}

set-active-slot() {
    local usage_msg="Usage: ${FUNCNAME[0]} service_name deployment_slot"
    local service=${1?$usage_msg}
    local slot=${2?$usage_msg}
    [ "$slot" == BLUE ] || [ "$slot" == GREEN ] || return 1

    get-nginx-config $service $slot | docker exec --interactive reverse-proxy sh -c "cat > /etc/nginx/conf.d/$service.conf"
    docker exec reverse-proxy nginx -t || return 2
    docker exec reverse-proxy nginx -s reload
}

Fonction get-active-slot nécessite une petite explication :

Pourquoi renvoie-t-il un nombre et ne génère-t-il pas de chaîne ?

Quoi qu'il en soit, dans la fonction appelante, nous vérifions le résultat de son travail, et vérifier le code de sortie à l'aide de bash est beaucoup plus facile que de vérifier une chaîne. De plus, en extraire une chaîne est très simple :
get-active-slot service && echo BLUE || echo GREEN.

Trois conditions suffisent-elles vraiment pour distinguer tous les États ?

Bleu-Vert Déploiement au salaire minimum

Même deux suffiront, le dernier est ici juste pour être complet, pour ne pas écrire else.

Seule la fonction qui renvoie les configurations nginx reste indéfinie : get-nginx-config service_name deployment_slot. Par analogie avec le contrôle de santé, vous pouvez définir ici n'importe quelle configuration pour n'importe quel service. Parmi les choses intéressantes - seulement cat <<- EOF, qui vous permet de supprimer tous les onglets au début. Certes, le prix d'un bon formatage est de mélanger des tabulations avec des espaces, ce qui est aujourd'hui considéré comme une très mauvaise forme. Mais bash force les onglets, et ce serait également bien d'avoir un formatage normal dans la configuration nginx. Bref, mélanger ici des tabulations avec des espaces semble vraiment être la meilleure solution parmi les pires. Cependant, vous ne verrez pas cela dans l'extrait ci-dessous, car Habr « le fait bien » en remplaçant tous les onglets par 4 espaces et en rendant EOF invalide. Et ici, c'est perceptible.

Pour ne pas me lever deux fois, je vais vous raconter tout de suite cat << 'EOF', que nous rencontrerons plus tard. Si tu écris simplement cat << EOF, puis à l'intérieur de heredoc, la chaîne est interpolée (les variables sont développées ($foo), les appels de commandes ($(bar)) etc.), et si vous placez la fin du document entre guillemets simples, alors l'interpolation est désactivée et le symbole $ est affiché tel quel. Ce dont vous avez besoin pour insérer un script dans un autre script.

get-nginx-config() {
    local usage_msg="Usage: ${FUNCNAME[0]} service_name deployment_slot"
    local service=${1?$usage_msg}
    local slot=${2?$usage_msg}
    [ "$slot" == BLUE ] || [ "$slot" == GREEN ] || return 1

    local container_name=${service}_${slot}
    case $service in
        # Add specific nginx configs for your services here
        *) nginx-config-simple-service $container_name:8080 ;;
    esac
}

nginx-config-simple-service() {
    local usage_msg="Usage: ${FUNCNAME[0]} proxy_pass"
    local proxy_pass=${1?$usage_msg}

cat << EOF
server {
    listen 80;
    location / {
        proxy_pass http://$proxy_pass;
    }
}
EOF
}

C'est tout le scénario. Et ainsi l'essentiel de ce script pour le téléchargement via wget ou curl.

Exécuter des scripts paramétrés sur un serveur distant

Il est temps de frapper sur le serveur cible. Cette fois localhost tout à fait adapté :

$ ssh-copy-id localhost
/usr/bin/ssh-copy-id: INFO: attempting to log in with the new key(s), to filter out any that are already installed
/usr/bin/ssh-copy-id: INFO: 1 key(s) remain to be installed -- if you are prompted now it is to install the new keys
himura@localhost's password: 

Number of key(s) added: 1

Now try logging into the machine, with:   "ssh 'localhost'"
and check to make sure that only the key(s) you wanted were added.

Nous avons écrit un script de déploiement qui télécharge une image prédéfinie sur le serveur cible et remplace de manière transparente le conteneur de service, mais comment pouvons-nous l'exécuter sur une machine distante ? Le script a des arguments, car il est universel et peut déployer plusieurs services à la fois sous un seul proxy inverse (vous pouvez utiliser les configurations nginx pour déterminer quelle URL sera quel service). Le script ne peut pas être stocké sur le serveur, puisque dans ce cas nous ne pourrons pas le mettre à jour automatiquement (dans le but de corriger des bugs et d'ajouter de nouveaux services), et en général, state = evil.

Solution 1 : stockez toujours le script sur le serveur, mais copiez-le à chaque fois. scp. Connectez-vous ensuite via ssh et exécutez le script avec les arguments nécessaires.

Inconvénients:

  • Deux actions au lieu d'une
  • Il se peut qu'il n'y ait pas d'endroit où vous copiez, ou qu'il n'y ait pas d'accès, ou que le script puisse être exécuté au moment de la substitution.
  • Il est conseillé de faire le ménage après soi (supprimer le script).
  • Déjà trois actions.

Solution 2:

  • Conservez uniquement les définitions de fonctions dans le script et n'exécutez rien du tout
  • Avec sed ajouter un appel de fonction à la fin
  • Envoyez le tout directement à chut via un tube (|)

Avantages:

  • Vraiment apatride
  • Aucune entité passe-partout
  • Se sentir cool

Faisons-le sans Ansible. Oui, tout a déjà été inventé. Oui, un vélo. Regardez à quel point le vélo est simple, élégant et minimaliste :

$ cat << 'EOF' > deploy.sh
#!/bin/bash

usage_msg="Usage: $0 ssh_address local_image_tag"
ssh_address=${1?$usage_msg}
image_name=${2?$usage_msg}

echo "Connecting to '$ssh_address' via ssh to seamlessly deploy '$image_name'..."
( sed "$a deploy $image_name" | ssh -T $ssh_address ) << 'END_OF_SCRIPT'
deploy() {
    echo "Yay! The '${FUNCNAME[0]}' function is executing on '$(hostname)' with argument '$1'"
}
END_OF_SCRIPT
EOF

$ chmod +x deploy.sh

$ ./deploy.sh localhost magic-porridge-pot
Connecting to localhost...
Yay! The 'deploy' function is executing on 'hut' with argument 'magic-porridge-pot'

Cependant, nous ne pouvons pas être sûrs que l'hôte distant dispose d'un bash adéquat, nous ajouterons donc une petite vérification au début (c'est au lieu de détonation):

if [ "$SHELL" != "/bin/bash" ]
then
    echo "The '$SHELL' shell is not supported by 'deploy.sh'. Set a '/bin/bash' shell for '$USER@$HOSTNAME'."
    exit 1
fi

Et maintenant c'est réel :

$ docker exec reverse-proxy rm /etc/nginx/conf.d/default.conf

$ wget -qO deploy.sh https://git.io/JUURc

$ chmod +x deploy.sh

$ ./deploy.sh localhost uptimer
Sending gzipped image 'uptimer' to 'localhost' via ssh...
Loaded image: uptimer:latest
Connecting to 'localhost' via ssh to seamlessly deploy 'uptimer'...
Deploying 'uptimer_GREEN' in place of 'uptimer_BLUE'...
06f5bc70e9c4f930e7b1f826ae2ca2f536023cc01e82c2b97b2c84d68048b18a
Container started. Checking health...
Requesting 'http://uptimer_GREEN:8080/' within the 'web-gateway' docker network:
  HTTP/1.0 503 Service Unavailable
wget: server returned error: HTTP/1.0 503 Service Unavailable
New 'uptimer_GREEN' service is not ready yet. Waiting (1)...
Requesting 'http://uptimer_GREEN:8080/' within the 'web-gateway' docker network:
  HTTP/1.0 503 Service Unavailable
wget: server returned error: HTTP/1.0 503 Service Unavailable
New 'uptimer_GREEN' service is not ready yet. Waiting (2)...
Requesting 'http://uptimer_GREEN:8080/' within the 'web-gateway' docker network:
  HTTP/1.0 200 OK
  Server: BaseHTTP/0.6 Python/3.8.3
  Date: Sat, 22 Aug 2020 20:15:50 GMT
  Content-Type: text/html

New 'uptimer_GREEN' service seems OK. Switching heads...
nginx: the configuration file /etc/nginx/nginx.conf syntax is ok
nginx: configuration file /etc/nginx/nginx.conf test is successful
2020/08/22 20:15:54 [notice] 97#97: signal process started
The 'uptimer_GREEN' service is live!
Killing 'uptimer_BLUE'...
uptimer_BLUE
Total reclaimed space: 0B
Deployment successful!

Maintenant tu peux ouvrir http://localhost/ dans le navigateur, exécutez à nouveau le déploiement et assurez-vous qu'il s'exécute de manière transparente en mettant à jour la page en fonction du CD lors de la mise en page.

N'oubliez pas de nettoyer après le travail :3

$ docker rm -f uptimer_GREEN reverse-proxy 
uptimer_GREEN
reverse-proxy

$ docker network rm web-gateway 
web-gateway

$ cd ..

$ rm -r blue-green-deployment

Source: habr.com