Despliegue Azul-Verde con salarios mínimos

En este artículo utilizamos golpear, ssh, estibador и nginx Organizaremos un diseño perfecto de la aplicación web. Despliegue azul-verde es una técnica que le permite actualizar instantáneamente una aplicación sin rechazar una sola solicitud. Es una de las estrategias de implementación sin tiempo de inactividad y es más adecuada para aplicaciones con una instancia, pero con la capacidad de cargar una segunda instancia cercana lista para ejecutar.

Digamos que tiene una aplicación web con la que muchos clientes están trabajando activamente y no hay absolutamente ninguna posibilidad de que se quede inactiva durante un par de segundos. Y realmente necesitas implementar una actualización de la biblioteca, una corrección de errores o una nueva característica interesante. En una situación normal, deberá detener la aplicación, reemplazarla e iniciarla nuevamente. En el caso de Docker, primero puede reemplazarlo y luego reiniciarlo, pero aún habrá un período en el que las solicitudes a la aplicación no se procesarán, porque generalmente la aplicación tarda algún tiempo en cargarse inicialmente. ¿Qué pasa si arranca pero resulta inoperable? Este es el problema, resolvámoslo con los mínimos medios y de la forma más elegante posible.

DESCARGO DE RESPONSABILIDAD: La mayor parte del artículo se presenta en un formato experimental, en forma de grabación de una sesión de consola. Con suerte, esto no será demasiado difícil de entender y el código se documentará lo suficientemente bien. Para la atmósfera, imaginemos que estos no son sólo fragmentos de código, sino papel de un teletipo "de hierro".

Despliegue Azul-Verde con salarios mínimos

Al principio de cada sección se describen técnicas interesantes que son difíciles de buscar en Google con solo leer el código. Si hay algo más que no te queda claro, búscalo en Google y compruébalo. explicar shell (afortunadamente vuelve a funcionar, debido al desbloqueo del telegrama). Si no puedes buscar nada en Google, pregunta en los comentarios. Estaré encantado de añadir a la sección correspondiente “Técnicas interesantes”.

Vamos a empezar

$ mkdir blue-green-deployment && cd $_

Servicio

Hagamos un servicio experimental y colóquelo en un contenedor.

Técnicas interesantes

  • cat << EOF > file-name (Aquí Documento + Redirección de E / S) es una forma de crear un archivo de varias líneas con un comando. Todo lo que lee bash /dev/stdin después de esta línea y antes de la línea EOF se registrará en file-name.
  • wget -qO- URL (explicar shell) — envía un documento recibido a través de HTTP a /dev/stdout (término análogo curl URL).

Imprimir

Rompo específicamente el fragmento para habilitar el resaltado para Python. Al final habrá otra pieza como esta. Considere que en estos lugares se cortó el papel para enviarlo al departamento de resaltado (donde el código se coloreó a mano con resaltadores), y luego se volvieron a pegar estas piezas.

$ cat << EOF > uptimer.py
from http.server import BaseHTTPRequestHandler, HTTPServer
from time import monotonic

app_version = 1
app_name = f'Uptimer v{app_version}.0'
loading_seconds = 15 - app_version * 5

class Handler(BaseHTTPRequestHandler):
    def do_GET(self):
        if self.path == '/':
            try:
                t = monotonic() - server_start
                if t < loading_seconds:
                    self.send_error(503)
                else:
                    self.send_response(200)
                    self.send_header('Content-Type', 'text/html')
                    self.end_headers()
                    response = f'<h2>{app_name} is running for {t:3.1f} seconds.</h2>n'
                    self.wfile.write(response.encode('utf-8'))
            except Exception:
                self.send_error(500)
        else:
            self.send_error(404)

httpd = HTTPServer(('', 8080), Handler)
server_start = monotonic()
print(f'{app_name} (loads in {loading_seconds} sec.) started.')
httpd.serve_forever()
EOF

$ cat << EOF > Dockerfile
FROM python:alpine
EXPOSE 8080
COPY uptimer.py app.py
CMD [ "python", "-u", "./app.py" ]
EOF

$ docker build --tag uptimer .
Sending build context to Docker daemon  39.42kB
Step 1/4 : FROM python:alpine
 ---> 8ecf5a48c789
Step 2/4 : EXPOSE 8080
 ---> Using cache
 ---> cf92d174c9d3
Step 3/4 : COPY uptimer.py app.py
 ---> a7fbb33d6b7e
Step 4/4 : CMD [ "python", "-u", "./app.py" ]
 ---> Running in 1906b4bd9fdf
Removing intermediate container 1906b4bd9fdf
 ---> c1655b996fe8
Successfully built c1655b996fe8
Successfully tagged uptimer:latest

$ docker run --rm --detach --name uptimer --publish 8080:8080 uptimer
8f88c944b8bf78974a5727070a94c76aa0b9bb2b3ecf6324b784e782614b2fbf

$ docker ps
CONTAINER ID        IMAGE               COMMAND                CREATED             STATUS              PORTS                    NAMES
8f88c944b8bf        uptimer             "python -u ./app.py"   3 seconds ago       Up 5 seconds        0.0.0.0:8080->8080/tcp   uptimer

$ docker logs uptimer
Uptimer v1.0 (loads in 10 sec.) started.

$ wget -qSO- http://localhost:8080
  HTTP/1.0 503 Service Unavailable
  Server: BaseHTTP/0.6 Python/3.8.3
  Date: Sat, 22 Aug 2020 19:52:40 GMT
  Connection: close
  Content-Type: text/html;charset=utf-8
  Content-Length: 484

$ wget -qSO- http://localhost:8080
  HTTP/1.0 200 OK
  Server: BaseHTTP/0.6 Python/3.8.3
  Date: Sat, 22 Aug 2020 19:52:45 GMT
  Content-Type: text/html
<h2>Uptimer v1.0 is running for 15.4 seconds.</h2>

$ docker rm --force uptimer
uptimer

proxy inverso

Para que nuestra aplicación pueda cambiar desapercibida es necesario que delante de ella haya alguna otra entidad que oculte su reemplazo. Podría ser un servidor web nginx в modo proxy inverso. Se establece un proxy inverso entre el cliente y la aplicación. Acepta solicitudes de clientes y las reenvía a la aplicación y envía las respuestas de la aplicación a los clientes.

La aplicación y el proxy inverso se pueden vincular dentro de la ventana acoplable usando red acoplable. Por lo tanto, el contenedor con la aplicación ni siquiera necesita reenviar un puerto en el sistema host; esto permite que la aplicación esté lo más aislada posible de amenazas externas.

Si el proxy inverso reside en otro host, tendrá que abandonar la red Docker y conectar la aplicación al proxy inverso a través de la red del host, reenviando el puerto. приложения parámetro --publish, como en el primer inicio y como con el proxy inverso.

Ejecutaremos el proxy inverso en el puerto 80, porque esta es exactamente la entidad que debería escuchar la red externa. Si el puerto 80 está ocupado en su host de prueba, cambie el parámetro --publish 80:80 en --publish ANY_FREE_PORT:80.

Técnicas interesantes

Imprimir

$ docker network create web-gateway
5dba128fb3b255b02ac012ded1906b7b4970b728fb7db3dbbeccc9a77a5dd7bd

$ docker run --detach --rm --name uptimer --network web-gateway uptimer
a1105f1b583dead9415e99864718cc807cc1db1c763870f40ea38bc026e2d67f

$ docker run --rm --network web-gateway alpine wget -qO- http://uptimer:8080
<h2>Uptimer v1.0 is running for 11.5 seconds.</h2>

$ docker run --detach --publish 80:80 --network web-gateway --name reverse-proxy nginx:alpine
80695a822c19051260c66bf60605dcb4ea66802c754037704968bc42527bf120

$ docker ps
CONTAINER ID        IMAGE               COMMAND                  CREATED              STATUS              PORTS                NAMES
80695a822c19        nginx:alpine        "/docker-entrypoint.…"   27 seconds ago       Up 25 seconds       0.0.0.0:80->80/tcp   reverse-proxy
a1105f1b583d        uptimer             "python -u ./app.py"     About a minute ago   Up About a minute   8080/tcp             uptimer

$ cat << EOF > uptimer.conf
server {
    listen 80;
    location / {
        proxy_pass http://uptimer:8080;
    }
}
EOF

$ docker cp ./uptimer.conf reverse-proxy:/etc/nginx/conf.d/default.conf

$ docker exec reverse-proxy nginx -s reload
2020/06/23 20:51:03 [notice] 31#31: signal process started

$ wget -qSO- http://localhost
  HTTP/1.1 200 OK
  Server: nginx/1.19.0
  Date: Sat, 22 Aug 2020 19:56:24 GMT
  Content-Type: text/html
  Transfer-Encoding: chunked
  Connection: keep-alive
<h2>Uptimer v1.0 is running for 104.1 seconds.</h2>

Implementación perfecta

Implementemos una nueva versión de la aplicación (con un aumento doble del rendimiento de inicio) e intentemos implementarla sin problemas.

Técnicas interesantes

  • echo 'my text' | docker exec -i my-container sh -c 'cat > /my-file.txt' — Escribir texto my text archivar /my-file.txt dentro del contenedor my-container.
  • cat > /my-file.txt — Escribir el contenido de la entrada estándar en un archivo. /dev/stdin.

Imprimir

$ sed -i "s/app_version = 1/app_version = 2/" uptimer.py

$ docker build --tag uptimer .
Sending build context to Docker daemon  39.94kB
Step 1/4 : FROM python:alpine
 ---> 8ecf5a48c789
Step 2/4 : EXPOSE 8080
 ---> Using cache
 ---> cf92d174c9d3
Step 3/4 : COPY uptimer.py app.py
 ---> 3eca6a51cb2d
Step 4/4 : CMD [ "python", "-u", "./app.py" ]
 ---> Running in 8f13c6d3d9e7
Removing intermediate container 8f13c6d3d9e7
 ---> 1d56897841ec
Successfully built 1d56897841ec
Successfully tagged uptimer:latest

$ docker run --detach --rm --name uptimer_BLUE --network web-gateway uptimer
96932d4ca97a25b1b42d1b5f0ede993b43f95fac3c064262c5c527e16c119e02

$ docker logs uptimer_BLUE
Uptimer v2.0 (loads in 5 sec.) started.

$ docker run --rm --network web-gateway alpine wget -qO- http://uptimer_BLUE:8080
<h2>Uptimer v2.0 is running for 23.9 seconds.</h2>

$ sed s/uptimer/uptimer_BLUE/ uptimer.conf | docker exec --interactive reverse-proxy sh -c 'cat > /etc/nginx/conf.d/default.conf'

$ docker exec reverse-proxy cat /etc/nginx/conf.d/default.conf
server {
    listen 80;
    location / {
        proxy_pass http://uptimer_BLUE:8080;
    }
}

$ docker exec reverse-proxy nginx -s reload
2020/06/25 21:22:23 [notice] 68#68: signal process started

$ wget -qO- http://localhost
<h2>Uptimer v2.0 is running for 63.4 seconds.</h2>

$ docker rm -f uptimer
uptimer

$ wget -qO- http://localhost
<h2>Uptimer v2.0 is running for 84.8 seconds.</h2>

$ docker ps
CONTAINER ID        IMAGE               COMMAND                  CREATED              STATUS              PORTS                NAMES
96932d4ca97a        uptimer             "python -u ./app.py"     About a minute ago   Up About a minute   8080/tcp             uptimer_BLUE
80695a822c19        nginx:alpine        "/docker-entrypoint.…"   8 minutes ago        Up 8 minutes        0.0.0.0:80->80/tcp   reverse-proxy

En esta etapa, la imagen se crea directamente en el servidor, lo que requiere que las fuentes de la aplicación estén allí y también carga el servidor con trabajo innecesario. El siguiente paso es asignar el ensamblaje de la imagen a una máquina separada (por ejemplo, a un sistema CI) y luego transferirlo al servidor.

Transferir imágenes

Desafortunadamente, no tiene sentido transferir imágenes de localhost a localhost, por lo que esta sección solo se puede explorar si tiene dos hosts con Docker a mano. Como mínimo se parece a esto:

$ ssh production-server docker image ls
REPOSITORY          TAG                 IMAGE ID            CREATED             SIZE

$ docker image save uptimer | ssh production-server 'docker image load'
Loaded image: uptimer:latest

$ ssh production-server docker image ls
REPOSITORY          TAG                 IMAGE ID            CREATED             SIZE
uptimer             latest              1d56897841ec        5 minutes ago       78.9MB

Equipo docker save guarda los datos de la imagen en un archivo .tar, lo que significa que pesa aproximadamente 1.5 veces más de lo que pesaría en forma comprimida. Así que hagámoslo en nombre de ahorrar tiempo y tráfico:

$ docker image save uptimer | gzip | ssh production-server 'zcat | docker image load'
Loaded image: uptimer:latest

También puedes monitorear el proceso de descarga (aunque esto requiere una utilidad de terceros):

$ docker image save uptimer | gzip | pv | ssh production-server 'zcat | docker image load'
25,7MiB 0:01:01 [ 425KiB/s] [                   <=>    ]
Loaded image: uptimer:latest

Consejo: si necesita varios parámetros para conectarse a un servidor a través de SSH, es posible que no esté utilizando el archivo ~/.ssh/config.

Transferir la imagen mediante docker image save/load - Este es el método más minimalista, pero no el único. Hay otros:

  1. Registro de contenedores (estándar de la industria).
  2. Conéctese al servidor Docker Daemon desde otro host:
    1. Variable ambiental DOCKER_HOST.
    2. Opción de línea de comando -H o --host instrumento docker-compose.
    3. docker context

El segundo método (con tres opciones para su implementación) está bien descrito en el artículo. Cómo implementar en hosts Docker remotos con Docker-compose.

deploy.sh

Ahora recopilemos todo lo que hicimos manualmente en un solo script. Comencemos con la función de nivel superior y luego veamos las demás que se utilizan en ella.

Técnicas interesantes

  • ${parameter?err_msg} - uno de los hechizos mágicos bash (también conocido como sustitución de parámetros). Si parameter no especificado, salida err_msg y salir con el código 1.
  • docker --log-driver journald — De forma predeterminada, el controlador de registro de Docker es un archivo de texto sin rotación. Con este enfoque, los registros llenan rápidamente todo el disco, por lo que para un entorno de producción es necesario cambiar el controlador por uno más inteligente.

Guión de implementación

deploy() {
    local usage_msg="Usage: ${FUNCNAME[0]} image_name"
    local image_name=${1?$usage_msg}

    ensure-reverse-proxy || return 2
    if get-active-slot $image_name
    then
        local OLD=${image_name}_BLUE
        local new_slot=GREEN
    else
        local OLD=${image_name}_GREEN
        local new_slot=BLUE
    fi
    local NEW=${image_name}_${new_slot}
    echo "Deploying '$NEW' in place of '$OLD'..."
    docker run 
        --detach 
        --restart always 
        --log-driver journald 
        --name $NEW 
        --network web-gateway 
        $image_name || return 3
    echo "Container started. Checking health..."
    for i in {1..20}
    do
        sleep 1
        if get-service-status $image_name $new_slot
        then
            echo "New '$NEW' service seems OK. Switching heads..."
            sleep 2  # Ensure service is ready
            set-active-slot $image_name $new_slot || return 4
            echo "'$NEW' service is live!"
            sleep 2  # Ensure all requests were processed
            echo "Killing '$OLD'..."
            docker rm -f $OLD
            docker image prune -f
            echo "Deployment successful!"
            return 0
        fi
        echo "New '$NEW' service is not ready yet. Waiting ($i)..."
    done
    echo "New '$NEW' service did not raise, killing it. Failed to deploy T_T"
    docker rm -f $NEW
    return 5
}

Características utilizadas:

  • ensure-reverse-proxy — Se asegura de que el proxy inverso esté funcionando (útil para la primera implementación)
  • get-active-slot service_name — Determina qué ranura está actualmente activa para un servicio determinado (BLUE o GREEN)
  • get-service-status service_name deployment_slot — Determina si el servicio está listo para procesar solicitudes entrantes.
  • set-active-slot service_name deployment_slot — Cambia la configuración de nginx en el contenedor de proxy inverso

En orden:

ensure-reverse-proxy() {
    is-container-up reverse-proxy && return 0
    echo "Deploying reverse-proxy..."
    docker network create web-gateway
    docker run 
        --detach 
        --restart always 
        --log-driver journald 
        --name reverse-proxy 
        --network web-gateway 
        --publish 80:80 
        nginx:alpine || return 1
    docker exec --interactive reverse-proxy sh -c "> /etc/nginx/conf.d/default.conf"
    docker exec reverse-proxy nginx -s reload
}

is-container-up() {
    local container=${1?"Usage: ${FUNCNAME[0]} container_name"}

    [ -n "$(docker ps -f name=${container} -q)" ]
    return $?
}

get-active-slot() {
    local service=${1?"Usage: ${FUNCNAME[0]} service_name"}

    if is-container-up ${service}_BLUE && is-container-up ${service}_GREEN; then
        echo "Collision detected! Stopping ${service}_GREEN..."
        docker rm -f ${service}_GREEN
        return 0  # BLUE
    fi
    if is-container-up ${service}_BLUE && ! is-container-up ${service}_GREEN; then
        return 0  # BLUE
    fi
    if ! is-container-up ${service}_BLUE; then
        return 1  # GREEN
    fi
}

get-service-status() {
    local usage_msg="Usage: ${FUNCNAME[0]} service_name deployment_slot"
    local service=${1?usage_msg}
    local slot=${2?$usage_msg}

    case $service in
        # Add specific healthcheck paths for your services here
        *) local health_check_port_path=":8080/" ;;
    esac
    local health_check_address="http://${service}_${slot}${health_check_port_path}"
    echo "Requesting '$health_check_address' within the 'web-gateway' docker network:"
    docker run --rm --network web-gateway alpine 
        wget --timeout=1 --quiet --server-response $health_check_address
    return $?
}

set-active-slot() {
    local usage_msg="Usage: ${FUNCNAME[0]} service_name deployment_slot"
    local service=${1?$usage_msg}
    local slot=${2?$usage_msg}
    [ "$slot" == BLUE ] || [ "$slot" == GREEN ] || return 1

    get-nginx-config $service $slot | docker exec --interactive reverse-proxy sh -c "cat > /etc/nginx/conf.d/$service.conf"
    docker exec reverse-proxy nginx -t || return 2
    docker exec reverse-proxy nginx -s reload
}

Función get-active-slot requiere una pequeña explicación:

¿Por qué devuelve un número y no genera una cadena?

De todos modos, en la función que llama verificamos el resultado de su trabajo, y verificar el código de salida usando bash es mucho más fácil que verificar una cadena. Además, obtener una cadena es muy sencillo:
get-active-slot service && echo BLUE || echo GREEN.

¿Son realmente suficientes tres condiciones para distinguir a todos los Estados?

Despliegue Azul-Verde con salarios mínimos

Incluso dos serán suficientes, el último está aquí solo para completarlo, para no escribir else.

Sólo la función que devuelve las configuraciones de nginx permanece sin definir: get-nginx-config service_name deployment_slot. Por analogía con la verificación de estado, aquí puede configurar cualquier configuración para cualquier servicio. De las cosas interesantes - solo cat <<- EOF, que le permite eliminar todas las pestañas al principio. Es cierto que el precio de un buen formato son las pestañas mixtas con espacios, lo que hoy en día se considera de muy mala forma. Pero bash fuerza las pestañas, y también sería bueno tener un formato normal en la configuración de nginx. En resumen, mezclar pestañas con espacios aquí realmente parece la mejor solución de las peores. Sin embargo, no verá esto en el siguiente fragmento, ya que Habr "lo hace bien" al cambiar todas las pestañas a 4 espacios y invalidar el EOF. Y aquí se nota.

Para no levantarme dos veces te cuento enseguida cat << 'EOF', que se encontrará más adelante. Si escribes simplemente cat << EOF, luego dentro de heredoc la cadena se interpola (las variables se expanden ($foo), llamadas de comando ($(bar)) etc.), y si incluye el final del documento entre comillas simples, la interpolación se desactiva y el símbolo $ se muestra tal cual. Lo que necesitas para insertar un script dentro de otro script.

get-nginx-config() {
    local usage_msg="Usage: ${FUNCNAME[0]} service_name deployment_slot"
    local service=${1?$usage_msg}
    local slot=${2?$usage_msg}
    [ "$slot" == BLUE ] || [ "$slot" == GREEN ] || return 1

    local container_name=${service}_${slot}
    case $service in
        # Add specific nginx configs for your services here
        *) nginx-config-simple-service $container_name:8080 ;;
    esac
}

nginx-config-simple-service() {
    local usage_msg="Usage: ${FUNCNAME[0]} proxy_pass"
    local proxy_pass=${1?$usage_msg}

cat << EOF
server {
    listen 80;
    location / {
        proxy_pass http://$proxy_pass;
    }
}
EOF
}

Este es el guión completo. Y entonces esencia con este script para descargar a través de wget o curl.

Ejecutar scripts parametrizados en un servidor remoto

Es hora de llamar al servidor de destino. Esta vez localhost bastante adecuado:

$ ssh-copy-id localhost
/usr/bin/ssh-copy-id: INFO: attempting to log in with the new key(s), to filter out any that are already installed
/usr/bin/ssh-copy-id: INFO: 1 key(s) remain to be installed -- if you are prompted now it is to install the new keys
himura@localhost's password: 

Number of key(s) added: 1

Now try logging into the machine, with:   "ssh 'localhost'"
and check to make sure that only the key(s) you wanted were added.

Hemos escrito un script de implementación que descarga una imagen prediseñadas en el servidor de destino y reemplaza sin problemas el contenedor de servicios, pero ¿cómo podemos ejecutarlo en una máquina remota? El script tiene argumentos, ya que es universal y puede implementar varios servicios a la vez bajo un proxy inverso (puede usar configuraciones de nginx para determinar qué URL será qué servicio). El script no se puede almacenar en el servidor, ya que en este caso no podremos actualizarlo automáticamente (con el fin de corregir errores y agregar nuevos servicios) y, en general, estado = mal.

Solución 1: aún almacene el script en el servidor, pero cópielo cada vez scp. Luego conéctese a través de ssh y ejecutar el script con los argumentos necesarios.

Contras:

  • Dos acciones en lugar de una
  • Es posible que no haya un lugar donde copiar, o que no haya acceso a él, o que el script se ejecute en el momento de la sustitución.
  • Es recomendable limpiar usted mismo (eliminar el guión).
  • Ya tres acciones.

Solucion 2:

  • Mantenga solo las definiciones de funciones en el script y no ejecute nada en absoluto
  • Con sed agregar una llamada de función al final
  • Envíalo todo directamente a shh a través de pipe (|)

Pros:

  • Verdaderamente apátrida
  • Sin entidades repetitivas
  • sentirse bien

Hagámoslo sin Ansible. Sí, ya está todo inventado. Sí, una bicicleta. Mira que simple, elegante y minimalista es la bicicleta:

$ cat << 'EOF' > deploy.sh
#!/bin/bash

usage_msg="Usage: $0 ssh_address local_image_tag"
ssh_address=${1?$usage_msg}
image_name=${2?$usage_msg}

echo "Connecting to '$ssh_address' via ssh to seamlessly deploy '$image_name'..."
( sed "$a deploy $image_name" | ssh -T $ssh_address ) << 'END_OF_SCRIPT'
deploy() {
    echo "Yay! The '${FUNCNAME[0]}' function is executing on '$(hostname)' with argument '$1'"
}
END_OF_SCRIPT
EOF

$ chmod +x deploy.sh

$ ./deploy.sh localhost magic-porridge-pot
Connecting to localhost...
Yay! The 'deploy' function is executing on 'hut' with argument 'magic-porridge-pot'

Sin embargo, no podemos estar seguros de que el host remoto tenga el bash adecuado, por lo que agregaremos una pequeña verificación al principio (esto es en lugar de bombardeo):

if [ "$SHELL" != "/bin/bash" ]
then
    echo "The '$SHELL' shell is not supported by 'deploy.sh'. Set a '/bin/bash' shell for '$USER@$HOSTNAME'."
    exit 1
fi

Y ahora es real:

$ docker exec reverse-proxy rm /etc/nginx/conf.d/default.conf

$ wget -qO deploy.sh https://git.io/JUURc

$ chmod +x deploy.sh

$ ./deploy.sh localhost uptimer
Sending gzipped image 'uptimer' to 'localhost' via ssh...
Loaded image: uptimer:latest
Connecting to 'localhost' via ssh to seamlessly deploy 'uptimer'...
Deploying 'uptimer_GREEN' in place of 'uptimer_BLUE'...
06f5bc70e9c4f930e7b1f826ae2ca2f536023cc01e82c2b97b2c84d68048b18a
Container started. Checking health...
Requesting 'http://uptimer_GREEN:8080/' within the 'web-gateway' docker network:
  HTTP/1.0 503 Service Unavailable
wget: server returned error: HTTP/1.0 503 Service Unavailable
New 'uptimer_GREEN' service is not ready yet. Waiting (1)...
Requesting 'http://uptimer_GREEN:8080/' within the 'web-gateway' docker network:
  HTTP/1.0 503 Service Unavailable
wget: server returned error: HTTP/1.0 503 Service Unavailable
New 'uptimer_GREEN' service is not ready yet. Waiting (2)...
Requesting 'http://uptimer_GREEN:8080/' within the 'web-gateway' docker network:
  HTTP/1.0 200 OK
  Server: BaseHTTP/0.6 Python/3.8.3
  Date: Sat, 22 Aug 2020 20:15:50 GMT
  Content-Type: text/html

New 'uptimer_GREEN' service seems OK. Switching heads...
nginx: the configuration file /etc/nginx/nginx.conf syntax is ok
nginx: configuration file /etc/nginx/nginx.conf test is successful
2020/08/22 20:15:54 [notice] 97#97: signal process started
The 'uptimer_GREEN' service is live!
Killing 'uptimer_BLUE'...
uptimer_BLUE
Total reclaimed space: 0B
Deployment successful!

Ahora puedes abrir http://localhost/ en el navegador, ejecute la implementación nuevamente y asegúrese de que se ejecute sin problemas actualizando la página de acuerdo con el CD durante el diseño.

No olvides limpiar después del trabajo :3

$ docker rm -f uptimer_GREEN reverse-proxy 
uptimer_GREEN
reverse-proxy

$ docker network rm web-gateway 
web-gateway

$ cd ..

$ rm -r blue-green-deployment

Fuente: habr.com