Blågrøn Indsættelse til mindstelønninger

I denne artikel bruger vi bash, ssh, havnearbejder и Nginx Vi vil organisere et problemfrit layout af webapplikationen. Blå-grøn indsættelse er en teknik, der giver dig mulighed for øjeblikkeligt at opdatere en applikation uden at afvise en eneste anmodning. Det er en af ​​nul nedetidsimplementeringsstrategierne og er bedst egnet til applikationer med én instans, men evnen til at indlæse en anden, klar til at køre instans i nærheden.

Lad os sige, at du har en webapplikation, som mange kunder aktivt arbejder med, og der er absolut ingen måde for den at ligge ned i et par sekunder. Og du har virkelig brug for at udrulle en biblioteksopdatering, en fejlrettelse eller en ny cool funktion. I en normal situation bliver du nødt til at stoppe applikationen, udskifte den og starte den igen. I tilfælde af docker kan du først udskifte den og derefter genstarte den, men der vil stadig være en periode, hvor anmodninger til applikationen ikke vil blive behandlet, fordi applikationen normalt tager noget tid at indlæse. Hvad hvis den starter, men viser sig at være ubrugelig? Dette er problemet, lad os løse det med minimale midler og så elegant som muligt.

ANSVARSFRASKRIVELSE: Det meste af artiklen er præsenteret i et eksperimentelt format - i form af en optagelse af en konsolsession. Forhåbentlig bliver dette ikke for svært at forstå, og koden vil dokumentere sig selv tilstrækkeligt. For atmosfærens skyld, forestil dig, at disse ikke kun er kodestykker, men papir fra en "jern" teletype.

Blågrøn Indsættelse til mindstelønninger

Interessante teknikker, som er svære at Google bare ved at læse koden, er beskrevet i begyndelsen af ​​hvert afsnit. Hvis noget andet er uklart, så google det og tjek det ud. forklarer skal (heldigvis virker det igen, pga. oplåsning af telegrammet). Hvis du ikke kan Google noget, så spørg i kommentarerne. Jeg vil med glæde tilføje til det tilsvarende afsnit "Interessante teknikker".

Lad os komme igang.

$ mkdir blue-green-deployment && cd $_

Service

Lad os lave en eksperimentel service og placere den i en beholder.

Interessante teknikker

  • cat << EOF > file-name (Her dokument + I/O-omdirigering) er en måde at oprette en multi-line fil med én kommando. Alt bash læser fra /dev/stdin efter denne linje og før linjen EOF vil blive optaget i file-name.
  • wget -qO- URL (forklarer skal) — output et dokument modtaget via HTTP til /dev/stdout (analog curl URL).

Print ud

Jeg bryder specifikt uddraget for at aktivere fremhævelse for Python. Til sidst vil der være endnu et stykke som dette. Tænk på, at papiret på disse steder blev klippet til for at blive sendt til fremhævningsafdelingen (hvor koden var håndfarvet med highlightere), og derefter blev disse stykker limet tilbage.

$ cat << EOF > uptimer.py
from http.server import BaseHTTPRequestHandler, HTTPServer
from time import monotonic

app_version = 1
app_name = f'Uptimer v{app_version}.0'
loading_seconds = 15 - app_version * 5

class Handler(BaseHTTPRequestHandler):
    def do_GET(self):
        if self.path == '/':
            try:
                t = monotonic() - server_start
                if t < loading_seconds:
                    self.send_error(503)
                else:
                    self.send_response(200)
                    self.send_header('Content-Type', 'text/html')
                    self.end_headers()
                    response = f'<h2>{app_name} is running for {t:3.1f} seconds.</h2>n'
                    self.wfile.write(response.encode('utf-8'))
            except Exception:
                self.send_error(500)
        else:
            self.send_error(404)

httpd = HTTPServer(('', 8080), Handler)
server_start = monotonic()
print(f'{app_name} (loads in {loading_seconds} sec.) started.')
httpd.serve_forever()
EOF

$ cat << EOF > Dockerfile
FROM python:alpine
EXPOSE 8080
COPY uptimer.py app.py
CMD [ "python", "-u", "./app.py" ]
EOF

$ docker build --tag uptimer .
Sending build context to Docker daemon  39.42kB
Step 1/4 : FROM python:alpine
 ---> 8ecf5a48c789
Step 2/4 : EXPOSE 8080
 ---> Using cache
 ---> cf92d174c9d3
Step 3/4 : COPY uptimer.py app.py
 ---> a7fbb33d6b7e
Step 4/4 : CMD [ "python", "-u", "./app.py" ]
 ---> Running in 1906b4bd9fdf
Removing intermediate container 1906b4bd9fdf
 ---> c1655b996fe8
Successfully built c1655b996fe8
Successfully tagged uptimer:latest

$ docker run --rm --detach --name uptimer --publish 8080:8080 uptimer
8f88c944b8bf78974a5727070a94c76aa0b9bb2b3ecf6324b784e782614b2fbf

$ docker ps
CONTAINER ID        IMAGE               COMMAND                CREATED             STATUS              PORTS                    NAMES
8f88c944b8bf        uptimer             "python -u ./app.py"   3 seconds ago       Up 5 seconds        0.0.0.0:8080->8080/tcp   uptimer

$ docker logs uptimer
Uptimer v1.0 (loads in 10 sec.) started.

$ wget -qSO- http://localhost:8080
  HTTP/1.0 503 Service Unavailable
  Server: BaseHTTP/0.6 Python/3.8.3
  Date: Sat, 22 Aug 2020 19:52:40 GMT
  Connection: close
  Content-Type: text/html;charset=utf-8
  Content-Length: 484

$ wget -qSO- http://localhost:8080
  HTTP/1.0 200 OK
  Server: BaseHTTP/0.6 Python/3.8.3
  Date: Sat, 22 Aug 2020 19:52:45 GMT
  Content-Type: text/html
<h2>Uptimer v1.0 is running for 15.4 seconds.</h2>

$ docker rm --force uptimer
uptimer

Omvendt proxy

For at vores applikation skal kunne ændres ubemærket, er det nødvendigt, at der er en anden enhed foran den, som vil skjule dens erstatning. Det kunne være en webserver Nginx в omvendt proxy-tilstand. Der etableres en omvendt proxy mellem klienten og applikationen. Den accepterer anmodninger fra kunder og videresender dem til applikationen og videresender applikationens svar til klienterne.

Applikationen og omvendt proxy kan tilknyttes inde i docker vha docker netværk. Containeren med applikationen behøver således ikke engang at videresende en port på værtssystemet; dette gør det muligt for applikationen at blive maksimalt isoleret fra eksterne trusler.

Hvis den omvendte proxy lever på en anden vært, bliver du nødt til at forlade docker-netværket og forbinde applikationen til den omvendte proxy gennem værtsnetværket, og videresende porten приложения parameter --publish, som ved første start og som med omvendt proxy.

Vi vil køre den omvendte proxy på port 80, fordi det er præcis den enhed, der skal lytte til det eksterne netværk. Hvis port 80 er optaget på din testvært, skal du ændre parameteren --publish 80:80--publish ANY_FREE_PORT:80.

Interessante teknikker

Print ud

$ docker network create web-gateway
5dba128fb3b255b02ac012ded1906b7b4970b728fb7db3dbbeccc9a77a5dd7bd

$ docker run --detach --rm --name uptimer --network web-gateway uptimer
a1105f1b583dead9415e99864718cc807cc1db1c763870f40ea38bc026e2d67f

$ docker run --rm --network web-gateway alpine wget -qO- http://uptimer:8080
<h2>Uptimer v1.0 is running for 11.5 seconds.</h2>

$ docker run --detach --publish 80:80 --network web-gateway --name reverse-proxy nginx:alpine
80695a822c19051260c66bf60605dcb4ea66802c754037704968bc42527bf120

$ docker ps
CONTAINER ID        IMAGE               COMMAND                  CREATED              STATUS              PORTS                NAMES
80695a822c19        nginx:alpine        "/docker-entrypoint.…"   27 seconds ago       Up 25 seconds       0.0.0.0:80->80/tcp   reverse-proxy
a1105f1b583d        uptimer             "python -u ./app.py"     About a minute ago   Up About a minute   8080/tcp             uptimer

$ cat << EOF > uptimer.conf
server {
    listen 80;
    location / {
        proxy_pass http://uptimer:8080;
    }
}
EOF

$ docker cp ./uptimer.conf reverse-proxy:/etc/nginx/conf.d/default.conf

$ docker exec reverse-proxy nginx -s reload
2020/06/23 20:51:03 [notice] 31#31: signal process started

$ wget -qSO- http://localhost
  HTTP/1.1 200 OK
  Server: nginx/1.19.0
  Date: Sat, 22 Aug 2020 19:56:24 GMT
  Content-Type: text/html
  Transfer-Encoding: chunked
  Connection: keep-alive
<h2>Uptimer v1.0 is running for 104.1 seconds.</h2>

Problemfri implementering

Lad os udrulle en ny version af applikationen (med et dobbelt opstartsydelsesboost) og prøve at implementere den problemfrit.

Interessante teknikker

  • echo 'my text' | docker exec -i my-container sh -c 'cat > /my-file.txt' - Skriv tekst my text at arkivere /my-file.txt inde i beholderen my-container.
  • cat > /my-file.txt — Skriv indholdet af standardinput til en fil /dev/stdin.

Print ud

$ sed -i "s/app_version = 1/app_version = 2/" uptimer.py

$ docker build --tag uptimer .
Sending build context to Docker daemon  39.94kB
Step 1/4 : FROM python:alpine
 ---> 8ecf5a48c789
Step 2/4 : EXPOSE 8080
 ---> Using cache
 ---> cf92d174c9d3
Step 3/4 : COPY uptimer.py app.py
 ---> 3eca6a51cb2d
Step 4/4 : CMD [ "python", "-u", "./app.py" ]
 ---> Running in 8f13c6d3d9e7
Removing intermediate container 8f13c6d3d9e7
 ---> 1d56897841ec
Successfully built 1d56897841ec
Successfully tagged uptimer:latest

$ docker run --detach --rm --name uptimer_BLUE --network web-gateway uptimer
96932d4ca97a25b1b42d1b5f0ede993b43f95fac3c064262c5c527e16c119e02

$ docker logs uptimer_BLUE
Uptimer v2.0 (loads in 5 sec.) started.

$ docker run --rm --network web-gateway alpine wget -qO- http://uptimer_BLUE:8080
<h2>Uptimer v2.0 is running for 23.9 seconds.</h2>

$ sed s/uptimer/uptimer_BLUE/ uptimer.conf | docker exec --interactive reverse-proxy sh -c 'cat > /etc/nginx/conf.d/default.conf'

$ docker exec reverse-proxy cat /etc/nginx/conf.d/default.conf
server {
    listen 80;
    location / {
        proxy_pass http://uptimer_BLUE:8080;
    }
}

$ docker exec reverse-proxy nginx -s reload
2020/06/25 21:22:23 [notice] 68#68: signal process started

$ wget -qO- http://localhost
<h2>Uptimer v2.0 is running for 63.4 seconds.</h2>

$ docker rm -f uptimer
uptimer

$ wget -qO- http://localhost
<h2>Uptimer v2.0 is running for 84.8 seconds.</h2>

$ docker ps
CONTAINER ID        IMAGE               COMMAND                  CREATED              STATUS              PORTS                NAMES
96932d4ca97a        uptimer             "python -u ./app.py"     About a minute ago   Up About a minute   8080/tcp             uptimer_BLUE
80695a822c19        nginx:alpine        "/docker-entrypoint.…"   8 minutes ago        Up 8 minutes        0.0.0.0:80->80/tcp   reverse-proxy

På dette stadie bygges billedet direkte på serveren, hvilket kræver, at applikationskilderne er der, og det belaster også serveren med unødvendigt arbejde. Det næste trin er at allokere billedsamlingen til en separat maskine (for eksempel til et CI-system) og derefter overføre den til serveren.

Overførsel af billeder

Desværre giver det ikke mening at overføre billeder fra localhost til localhost, så dette afsnit kan kun udforskes, hvis du har to værter med Docker ved hånden. Som minimum ser det sådan ud:

$ ssh production-server docker image ls
REPOSITORY          TAG                 IMAGE ID            CREATED             SIZE

$ docker image save uptimer | ssh production-server 'docker image load'
Loaded image: uptimer:latest

$ ssh production-server docker image ls
REPOSITORY          TAG                 IMAGE ID            CREATED             SIZE
uptimer             latest              1d56897841ec        5 minutes ago       78.9MB

Team docker save gemmer billeddataene i et .tar-arkiv, hvilket betyder, at det vejer omkring 1.5 gange mere, end det ville veje i komprimeret form. Så lad os ryste det i navnet på at spare tid og trafik:

$ docker image save uptimer | gzip | ssh production-server 'zcat | docker image load'
Loaded image: uptimer:latest

Du kan også overvåge downloadprocessen (selvom dette kræver et tredjepartsværktøj):

$ docker image save uptimer | gzip | pv | ssh production-server 'zcat | docker image load'
25,7MiB 0:01:01 [ 425KiB/s] [                   <=>    ]
Loaded image: uptimer:latest

Tip: Hvis du har brug for en masse parametre for at oprette forbindelse til en server via SSH, bruger du muligvis ikke filen ~/.ssh/config.

Overførsel af billedet via docker image save/load - Dette er den mest minimalistiske metode, men ikke den eneste. Der er andre:

  1. Container Registry (branchestandard).
  2. Opret forbindelse til docker daemon-server fra en anden vært:
    1. miljøvariabel DOCKER_HOST.
    2. Kommandolinje mulighed -H eller --host værktøj docker-compose.
    3. docker context

Den anden metode (med tre muligheder for dens implementering) er godt beskrevet i artiklen Sådan implementeres på eksterne Docker-værter med docker-compose.

deploy.sh

Lad os nu samle alt, hvad vi gjorde manuelt i et script. Lad os starte med funktionen på øverste niveau og derefter se på de andre, der bruges i den.

Interessante teknikker

  • ${parameter?err_msg} - en af ​​de bash-magiske besværgelser (aka parameter substitution). Hvis parameter ikke specificeret, output err_msg og forlad med kode 1.
  • docker --log-driver journald — som standard er docker-logningsdriveren en tekstfil uden nogen rotation. Med denne tilgang fylder logfilerne hurtigt hele disken, så for et produktionsmiljø er det nødvendigt at ændre driveren til en smartere.

Implementeringsscript

deploy() {
    local usage_msg="Usage: ${FUNCNAME[0]} image_name"
    local image_name=${1?$usage_msg}

    ensure-reverse-proxy || return 2
    if get-active-slot $image_name
    then
        local OLD=${image_name}_BLUE
        local new_slot=GREEN
    else
        local OLD=${image_name}_GREEN
        local new_slot=BLUE
    fi
    local NEW=${image_name}_${new_slot}
    echo "Deploying '$NEW' in place of '$OLD'..."
    docker run 
        --detach 
        --restart always 
        --log-driver journald 
        --name $NEW 
        --network web-gateway 
        $image_name || return 3
    echo "Container started. Checking health..."
    for i in {1..20}
    do
        sleep 1
        if get-service-status $image_name $new_slot
        then
            echo "New '$NEW' service seems OK. Switching heads..."
            sleep 2  # Ensure service is ready
            set-active-slot $image_name $new_slot || return 4
            echo "'$NEW' service is live!"
            sleep 2  # Ensure all requests were processed
            echo "Killing '$OLD'..."
            docker rm -f $OLD
            docker image prune -f
            echo "Deployment successful!"
            return 0
        fi
        echo "New '$NEW' service is not ready yet. Waiting ($i)..."
    done
    echo "New '$NEW' service did not raise, killing it. Failed to deploy T_T"
    docker rm -f $NEW
    return 5
}

Anvendte funktioner:

  • ensure-reverse-proxy — Sørger for, at den omvendte proxy fungerer (nyttigt til den første implementering)
  • get-active-slot service_name — Bestemmer, hvilket slot der i øjeblikket er aktivt for en given tjeneste (BLUE eller GREEN)
  • get-service-status service_name deployment_slot — Bestemmer, om tjenesten er klar til at behandle indgående anmodninger
  • set-active-slot service_name deployment_slot — Ændrer nginx-konfigurationen i den omvendte proxy-beholder

I rækkefølge:

ensure-reverse-proxy() {
    is-container-up reverse-proxy && return 0
    echo "Deploying reverse-proxy..."
    docker network create web-gateway
    docker run 
        --detach 
        --restart always 
        --log-driver journald 
        --name reverse-proxy 
        --network web-gateway 
        --publish 80:80 
        nginx:alpine || return 1
    docker exec --interactive reverse-proxy sh -c "> /etc/nginx/conf.d/default.conf"
    docker exec reverse-proxy nginx -s reload
}

is-container-up() {
    local container=${1?"Usage: ${FUNCNAME[0]} container_name"}

    [ -n "$(docker ps -f name=${container} -q)" ]
    return $?
}

get-active-slot() {
    local service=${1?"Usage: ${FUNCNAME[0]} service_name"}

    if is-container-up ${service}_BLUE && is-container-up ${service}_GREEN; then
        echo "Collision detected! Stopping ${service}_GREEN..."
        docker rm -f ${service}_GREEN
        return 0  # BLUE
    fi
    if is-container-up ${service}_BLUE && ! is-container-up ${service}_GREEN; then
        return 0  # BLUE
    fi
    if ! is-container-up ${service}_BLUE; then
        return 1  # GREEN
    fi
}

get-service-status() {
    local usage_msg="Usage: ${FUNCNAME[0]} service_name deployment_slot"
    local service=${1?usage_msg}
    local slot=${2?$usage_msg}

    case $service in
        # Add specific healthcheck paths for your services here
        *) local health_check_port_path=":8080/" ;;
    esac
    local health_check_address="http://${service}_${slot}${health_check_port_path}"
    echo "Requesting '$health_check_address' within the 'web-gateway' docker network:"
    docker run --rm --network web-gateway alpine 
        wget --timeout=1 --quiet --server-response $health_check_address
    return $?
}

set-active-slot() {
    local usage_msg="Usage: ${FUNCNAME[0]} service_name deployment_slot"
    local service=${1?$usage_msg}
    local slot=${2?$usage_msg}
    [ "$slot" == BLUE ] || [ "$slot" == GREEN ] || return 1

    get-nginx-config $service $slot | docker exec --interactive reverse-proxy sh -c "cat > /etc/nginx/conf.d/$service.conf"
    docker exec reverse-proxy nginx -t || return 2
    docker exec reverse-proxy nginx -s reload
}

Funktion get-active-slot kræver en lille forklaring:

Hvorfor returnerer det et tal og udsender ikke en streng?

Under alle omstændigheder kontrollerer vi resultatet af dets arbejde i opkaldsfunktionen, og det er meget nemmere at kontrollere udgangskode ved hjælp af bash end at tjekke en streng. Derudover er det meget enkelt at få en streng fra det:
get-active-slot service && echo BLUE || echo GREEN.

Er tre betingelser virkelig nok til at skelne alle stater?

Blågrøn Indsættelse til mindstelønninger

Selv to vil være nok, den sidste er her bare for fuldstændighedens skyld, for ikke at skrive else.

Kun den funktion, der returnerer nginx-konfigurationer, forbliver udefineret: get-nginx-config service_name deployment_slot. I analogi med sundhedstjek kan du her indstille enhver konfiguration for enhver tjeneste. Af de interessante ting - kun cat <<- EOF, som giver dig mulighed for at fjerne alle faner i begyndelsen. Det er sandt, at prisen for god formatering er blandet faner med mellemrum, hvilket i dag anses for at være en meget dårlig form. Men bash fremtvinger faner, og det ville også være rart at have normal formatering i nginx-konfigurationen. Kort sagt, at blande faner med mellemrum her virker virkelig som den bedste løsning ud af det værste. Du vil dog ikke se dette i uddraget nedenfor, da Habr "gør det godt" ved at ændre alle faner til 4 mellemrum og gøre EOF ugyldig. Og her mærkes det.

For ikke at stå op to gange, fortæller jeg dig med det samme om cat << 'EOF', som vil blive stødt på senere. Hvis du bare skriver cat << EOF, så inde i heredoc interpoleres strengen (variabler udvides ($foo), kommandokald ($(bar)) osv.), og hvis du omslutter slutningen af ​​dokumentet i enkelte anførselstegn, er interpolation deaktiveret, og symbolet $ vises som den er. Hvad du skal bruge for at indsætte et script i et andet script.

get-nginx-config() {
    local usage_msg="Usage: ${FUNCNAME[0]} service_name deployment_slot"
    local service=${1?$usage_msg}
    local slot=${2?$usage_msg}
    [ "$slot" == BLUE ] || [ "$slot" == GREEN ] || return 1

    local container_name=${service}_${slot}
    case $service in
        # Add specific nginx configs for your services here
        *) nginx-config-simple-service $container_name:8080 ;;
    esac
}

nginx-config-simple-service() {
    local usage_msg="Usage: ${FUNCNAME[0]} proxy_pass"
    local proxy_pass=${1?$usage_msg}

cat << EOF
server {
    listen 80;
    location / {
        proxy_pass http://$proxy_pass;
    }
}
EOF
}

Dette er hele manuskriptet. Også essens med dette script til download via wget eller curl.

Udførelse af parametriserede scripts på en ekstern server

Det er tid til at banke på målserveren. Denne gang localhost ganske passende:

$ ssh-copy-id localhost
/usr/bin/ssh-copy-id: INFO: attempting to log in with the new key(s), to filter out any that are already installed
/usr/bin/ssh-copy-id: INFO: 1 key(s) remain to be installed -- if you are prompted now it is to install the new keys
himura@localhost's password: 

Number of key(s) added: 1

Now try logging into the machine, with:   "ssh 'localhost'"
and check to make sure that only the key(s) you wanted were added.

Vi har skrevet et implementeringsscript, der downloader et forudbygget billede til målserveren og uden problemer erstatter servicebeholderen, men hvordan kan vi udføre det på en ekstern maskine? Scriptet har argumenter, da det er universelt og kan implementere flere tjenester på én gang under én omvendt proxy (du kan bruge nginx-konfigurationer til at bestemme, hvilken url der skal være hvilken tjeneste). Scriptet kan ikke gemmes på serveren, da vi i dette tilfælde ikke vil være i stand til at opdatere det automatisk (med henblik på fejlrettelser og tilføjelse af nye tjenester), og generelt stat = ond.

Løsning 1: Gem stadig scriptet på serveren, men kopier det hver gang igennem scp. Tilslut derefter via ssh og kør scriptet med de nødvendige argumenter.

Ulemper:

  • To handlinger i stedet for én
  • Der er muligvis ikke et sted, hvor du kopierer, eller der er muligvis ikke adgang til det, eller scriptet kan blive udført på tidspunktet for udskiftning.
  • Det er tilrådeligt at rydde op efter dig selv (slet scriptet).
  • Allerede tre handlinger.

Løsning 2:

  • Behold kun funktionsdefinitioner i scriptet og kør intet overhovedet
  • Med sed tilføje et funktionskald til slutningen
  • Send det hele direkte til shh via pipe (|)

Teknikere:

  • Virkelig statsløs
  • Ingen boilerplate-enheder
  • Føles cool

Lad os bare gøre det uden Ansible. Ja, alt er allerede opfundet. Ja, en cykel. Se hvor enkel, elegant og minimalistisk cyklen er:

$ cat << 'EOF' > deploy.sh
#!/bin/bash

usage_msg="Usage: $0 ssh_address local_image_tag"
ssh_address=${1?$usage_msg}
image_name=${2?$usage_msg}

echo "Connecting to '$ssh_address' via ssh to seamlessly deploy '$image_name'..."
( sed "$a deploy $image_name" | ssh -T $ssh_address ) << 'END_OF_SCRIPT'
deploy() {
    echo "Yay! The '${FUNCNAME[0]}' function is executing on '$(hostname)' with argument '$1'"
}
END_OF_SCRIPT
EOF

$ chmod +x deploy.sh

$ ./deploy.sh localhost magic-porridge-pot
Connecting to localhost...
Yay! The 'deploy' function is executing on 'hut' with argument 'magic-porridge-pot'

Vi kan dog ikke være sikre på, at fjernværten har tilstrækkelig bash, så vi tilføjer en lille markering i begyndelsen (dette er i stedet for shellbang):

if [ "$SHELL" != "/bin/bash" ]
then
    echo "The '$SHELL' shell is not supported by 'deploy.sh'. Set a '/bin/bash' shell for '$USER@$HOSTNAME'."
    exit 1
fi

Og nu er det rigtigt:

$ docker exec reverse-proxy rm /etc/nginx/conf.d/default.conf

$ wget -qO deploy.sh https://git.io/JUURc

$ chmod +x deploy.sh

$ ./deploy.sh localhost uptimer
Sending gzipped image 'uptimer' to 'localhost' via ssh...
Loaded image: uptimer:latest
Connecting to 'localhost' via ssh to seamlessly deploy 'uptimer'...
Deploying 'uptimer_GREEN' in place of 'uptimer_BLUE'...
06f5bc70e9c4f930e7b1f826ae2ca2f536023cc01e82c2b97b2c84d68048b18a
Container started. Checking health...
Requesting 'http://uptimer_GREEN:8080/' within the 'web-gateway' docker network:
  HTTP/1.0 503 Service Unavailable
wget: server returned error: HTTP/1.0 503 Service Unavailable
New 'uptimer_GREEN' service is not ready yet. Waiting (1)...
Requesting 'http://uptimer_GREEN:8080/' within the 'web-gateway' docker network:
  HTTP/1.0 503 Service Unavailable
wget: server returned error: HTTP/1.0 503 Service Unavailable
New 'uptimer_GREEN' service is not ready yet. Waiting (2)...
Requesting 'http://uptimer_GREEN:8080/' within the 'web-gateway' docker network:
  HTTP/1.0 200 OK
  Server: BaseHTTP/0.6 Python/3.8.3
  Date: Sat, 22 Aug 2020 20:15:50 GMT
  Content-Type: text/html

New 'uptimer_GREEN' service seems OK. Switching heads...
nginx: the configuration file /etc/nginx/nginx.conf syntax is ok
nginx: configuration file /etc/nginx/nginx.conf test is successful
2020/08/22 20:15:54 [notice] 97#97: signal process started
The 'uptimer_GREEN' service is live!
Killing 'uptimer_BLUE'...
uptimer_BLUE
Total reclaimed space: 0B
Deployment successful!

Nu kan du åbne http://localhost/ i browseren, kør implementeringen igen og sørg for, at den kører problemfrit ved at opdatere siden i henhold til cd'en under layoutet.

Glem ikke at rydde op efter arbejde :3

$ docker rm -f uptimer_GREEN reverse-proxy 
uptimer_GREEN
reverse-proxy

$ docker network rm web-gateway 
web-gateway

$ cd ..

$ rm -r blue-green-deployment

Kilde: www.habr.com