Blågrønn utplassering til minstelønn

I denne artikkelen bruker vi bash, ssh, Docker и nginx Vi vil organisere en sømløs layout av nettapplikasjonen. Blågrønn utplassering er en teknikk som lar deg oppdatere en applikasjon umiddelbart uten å avvise en eneste forespørsel. Det er en av null nedetidsdistribusjonsstrategier og er best egnet for applikasjoner med én forekomst, men muligheten til å laste en andre, klar til å kjøre forekomst i nærheten.

La oss si at du har en nettapplikasjon som mange klienter jobber aktivt med, og det er absolutt ingen måte for den å legge seg ned i et par sekunder. Og du trenger virkelig å rulle ut en bibliotekoppdatering, en feilretting eller en ny kul funksjon. I en normal situasjon må du stoppe applikasjonen, erstatte den og starte den på nytt. Når det gjelder docker, kan du først erstatte den, deretter starte den på nytt, men det vil fortsatt være en periode der forespørsler til applikasjonen ikke vil bli behandlet, fordi det vanligvis tar litt tid å laste applikasjonen inn. Hva om den starter, men viser seg å være ubrukelig? Dette er problemet, la oss løse det med minimale midler og så elegant som mulig.

ANSVARSFRASKRIVELSE: Det meste av artikkelen presenteres i et eksperimentelt format – i form av et opptak av en konsolløkt. Forhåpentligvis blir ikke dette for vanskelig å forstå og koden vil dokumentere seg selv tilstrekkelig. For atmosfæren kan du forestille deg at dette ikke bare er kodebiter, men papir fra en "jern" teletype.

Blågrønn utplassering til minstelønn

Interessante teknikker som er vanskelige å Google bare ved å lese koden er beskrevet i begynnelsen av hver del. Hvis noe annet er uklart, google det og sjekk det ut. forklarershell (Heldigvis fungerer det igjen, på grunn av blokkeringen av telegrammet). Hvis du ikke kan Google noe, spør i kommentarfeltet. Jeg vil gjerne legge til den tilsvarende delen "Interessante teknikker".

La oss komme i gang.

$ mkdir blue-green-deployment && cd $_

Verktøy

La oss lage en eksperimentell tjeneste og legge den i en beholder.

Interessante teknikker

  • cat << EOF > file-name (Her dokument + I/O-omdirigering) er en måte å lage en fil med flere linjer med én kommando. Alt bash leser fra /dev/stdin etter denne linjen og før linjen EOF vil bli tatt opp i file-name.
  • wget -qO- URL (forklarershell) — ut et dokument mottatt via HTTP til /dev/stdout (analog curl URL).

Utskrift

Jeg bryter spesifikt utdraget for å aktivere utheving for Python. På slutten blir det et annet stykke som dette. Tenk på at på disse stedene ble papiret kuttet for å sendes til uthevingsavdelingen (hvor koden ble håndfarget med highlighters), og så ble disse bitene limt tilbake.

$ cat << EOF > uptimer.py
from http.server import BaseHTTPRequestHandler, HTTPServer
from time import monotonic

app_version = 1
app_name = f'Uptimer v{app_version}.0'
loading_seconds = 15 - app_version * 5

class Handler(BaseHTTPRequestHandler):
    def do_GET(self):
        if self.path == '/':
            try:
                t = monotonic() - server_start
                if t < loading_seconds:
                    self.send_error(503)
                else:
                    self.send_response(200)
                    self.send_header('Content-Type', 'text/html')
                    self.end_headers()
                    response = f'<h2>{app_name} is running for {t:3.1f} seconds.</h2>n'
                    self.wfile.write(response.encode('utf-8'))
            except Exception:
                self.send_error(500)
        else:
            self.send_error(404)

httpd = HTTPServer(('', 8080), Handler)
server_start = monotonic()
print(f'{app_name} (loads in {loading_seconds} sec.) started.')
httpd.serve_forever()
EOF

$ cat << EOF > Dockerfile
FROM python:alpine
EXPOSE 8080
COPY uptimer.py app.py
CMD [ "python", "-u", "./app.py" ]
EOF

$ docker build --tag uptimer .
Sending build context to Docker daemon  39.42kB
Step 1/4 : FROM python:alpine
 ---> 8ecf5a48c789
Step 2/4 : EXPOSE 8080
 ---> Using cache
 ---> cf92d174c9d3
Step 3/4 : COPY uptimer.py app.py
 ---> a7fbb33d6b7e
Step 4/4 : CMD [ "python", "-u", "./app.py" ]
 ---> Running in 1906b4bd9fdf
Removing intermediate container 1906b4bd9fdf
 ---> c1655b996fe8
Successfully built c1655b996fe8
Successfully tagged uptimer:latest

$ docker run --rm --detach --name uptimer --publish 8080:8080 uptimer
8f88c944b8bf78974a5727070a94c76aa0b9bb2b3ecf6324b784e782614b2fbf

$ docker ps
CONTAINER ID        IMAGE               COMMAND                CREATED             STATUS              PORTS                    NAMES
8f88c944b8bf        uptimer             "python -u ./app.py"   3 seconds ago       Up 5 seconds        0.0.0.0:8080->8080/tcp   uptimer

$ docker logs uptimer
Uptimer v1.0 (loads in 10 sec.) started.

$ wget -qSO- http://localhost:8080
  HTTP/1.0 503 Service Unavailable
  Server: BaseHTTP/0.6 Python/3.8.3
  Date: Sat, 22 Aug 2020 19:52:40 GMT
  Connection: close
  Content-Type: text/html;charset=utf-8
  Content-Length: 484

$ wget -qSO- http://localhost:8080
  HTTP/1.0 200 OK
  Server: BaseHTTP/0.6 Python/3.8.3
  Date: Sat, 22 Aug 2020 19:52:45 GMT
  Content-Type: text/html
<h2>Uptimer v1.0 is running for 15.4 seconds.</h2>

$ docker rm --force uptimer
uptimer

Omvendt proxy

For at applikasjonen vår skal kunne endres ubemerket, er det nødvendig at det er en annen enhet foran den som vil skjule erstatningen. Det kan være en webserver nginx в omvendt proxy-modus. En omvendt proxy etableres mellom klienten og applikasjonen. Den aksepterer forespørsler fra klienter og videresender dem til applikasjonen og videresender applikasjonens svar til klientene.

Applikasjonen og omvendt proxy kan kobles i docker ved hjelp av docker-nettverk. Dermed trenger ikke beholderen med applikasjonen engang å videresende en port på vertssystemet; dette gjør at applikasjonen kan isoleres maksimalt fra eksterne trusler.

Hvis den omvendte proxyen lever på en annen vert, må du forlate docker-nettverket og koble applikasjonen til den omvendte proxyen gjennom vertsnettverket, videresende porten приложения parameter --publish, som ved første start og som med omvendt proxy.

Vi vil kjøre omvendt proxy på port 80, fordi dette er akkurat den enheten som skal lytte til det eksterne nettverket. Hvis port 80 er opptatt på testverten, endre parameteren --publish 80:80--publish ANY_FREE_PORT:80.

Interessante teknikker

Utskrift

$ docker network create web-gateway
5dba128fb3b255b02ac012ded1906b7b4970b728fb7db3dbbeccc9a77a5dd7bd

$ docker run --detach --rm --name uptimer --network web-gateway uptimer
a1105f1b583dead9415e99864718cc807cc1db1c763870f40ea38bc026e2d67f

$ docker run --rm --network web-gateway alpine wget -qO- http://uptimer:8080
<h2>Uptimer v1.0 is running for 11.5 seconds.</h2>

$ docker run --detach --publish 80:80 --network web-gateway --name reverse-proxy nginx:alpine
80695a822c19051260c66bf60605dcb4ea66802c754037704968bc42527bf120

$ docker ps
CONTAINER ID        IMAGE               COMMAND                  CREATED              STATUS              PORTS                NAMES
80695a822c19        nginx:alpine        "/docker-entrypoint.…"   27 seconds ago       Up 25 seconds       0.0.0.0:80->80/tcp   reverse-proxy
a1105f1b583d        uptimer             "python -u ./app.py"     About a minute ago   Up About a minute   8080/tcp             uptimer

$ cat << EOF > uptimer.conf
server {
    listen 80;
    location / {
        proxy_pass http://uptimer:8080;
    }
}
EOF

$ docker cp ./uptimer.conf reverse-proxy:/etc/nginx/conf.d/default.conf

$ docker exec reverse-proxy nginx -s reload
2020/06/23 20:51:03 [notice] 31#31: signal process started

$ wget -qSO- http://localhost
  HTTP/1.1 200 OK
  Server: nginx/1.19.0
  Date: Sat, 22 Aug 2020 19:56:24 GMT
  Content-Type: text/html
  Transfer-Encoding: chunked
  Connection: keep-alive
<h2>Uptimer v1.0 is running for 104.1 seconds.</h2>

Sømløs distribusjon

La oss rulle ut en ny versjon av applikasjonen (med en dobbel oppstartsytelsesøkning) og prøve å distribuere den sømløst.

Interessante teknikker

  • echo 'my text' | docker exec -i my-container sh -c 'cat > /my-file.txt' – Skriv tekst my text å lagre /my-file.txt inne i beholderen my-container.
  • cat > /my-file.txt — Skriv innholdet i standardinndata til en fil /dev/stdin.

Utskrift

$ sed -i "s/app_version = 1/app_version = 2/" uptimer.py

$ docker build --tag uptimer .
Sending build context to Docker daemon  39.94kB
Step 1/4 : FROM python:alpine
 ---> 8ecf5a48c789
Step 2/4 : EXPOSE 8080
 ---> Using cache
 ---> cf92d174c9d3
Step 3/4 : COPY uptimer.py app.py
 ---> 3eca6a51cb2d
Step 4/4 : CMD [ "python", "-u", "./app.py" ]
 ---> Running in 8f13c6d3d9e7
Removing intermediate container 8f13c6d3d9e7
 ---> 1d56897841ec
Successfully built 1d56897841ec
Successfully tagged uptimer:latest

$ docker run --detach --rm --name uptimer_BLUE --network web-gateway uptimer
96932d4ca97a25b1b42d1b5f0ede993b43f95fac3c064262c5c527e16c119e02

$ docker logs uptimer_BLUE
Uptimer v2.0 (loads in 5 sec.) started.

$ docker run --rm --network web-gateway alpine wget -qO- http://uptimer_BLUE:8080
<h2>Uptimer v2.0 is running for 23.9 seconds.</h2>

$ sed s/uptimer/uptimer_BLUE/ uptimer.conf | docker exec --interactive reverse-proxy sh -c 'cat > /etc/nginx/conf.d/default.conf'

$ docker exec reverse-proxy cat /etc/nginx/conf.d/default.conf
server {
    listen 80;
    location / {
        proxy_pass http://uptimer_BLUE:8080;
    }
}

$ docker exec reverse-proxy nginx -s reload
2020/06/25 21:22:23 [notice] 68#68: signal process started

$ wget -qO- http://localhost
<h2>Uptimer v2.0 is running for 63.4 seconds.</h2>

$ docker rm -f uptimer
uptimer

$ wget -qO- http://localhost
<h2>Uptimer v2.0 is running for 84.8 seconds.</h2>

$ docker ps
CONTAINER ID        IMAGE               COMMAND                  CREATED              STATUS              PORTS                NAMES
96932d4ca97a        uptimer             "python -u ./app.py"     About a minute ago   Up About a minute   8080/tcp             uptimer_BLUE
80695a822c19        nginx:alpine        "/docker-entrypoint.…"   8 minutes ago        Up 8 minutes        0.0.0.0:80->80/tcp   reverse-proxy

På dette stadiet bygges bildet direkte på serveren, noe som krever at applikasjonskildene er der, og også belaster serveren med unødvendig arbeid. Det neste trinnet er å allokere bildemontasjen til en separat maskin (for eksempel til et CI-system) og deretter overføre den til serveren.

Overføring av bilder

Dessverre er det ikke fornuftig å overføre bilder fra localhost til localhost, så denne delen kan bare utforskes hvis du har to verter med Docker for hånden. Det ser i det minste omtrent slik ut:

$ ssh production-server docker image ls
REPOSITORY          TAG                 IMAGE ID            CREATED             SIZE

$ docker image save uptimer | ssh production-server 'docker image load'
Loaded image: uptimer:latest

$ ssh production-server docker image ls
REPOSITORY          TAG                 IMAGE ID            CREATED             SIZE
uptimer             latest              1d56897841ec        5 minutes ago       78.9MB

Lag docker save lagrer bildedataene i et .tar-arkiv, noe som betyr at den veier omtrent 1.5 ganger mer enn den ville veie i komprimert form. Så la oss riste det i navnet for å spare tid og trafikk:

$ docker image save uptimer | gzip | ssh production-server 'zcat | docker image load'
Loaded image: uptimer:latest

Du kan også overvåke nedlastingsprosessen (selv om dette krever et tredjepartsverktøy):

$ docker image save uptimer | gzip | pv | ssh production-server 'zcat | docker image load'
25,7MiB 0:01:01 [ 425KiB/s] [                   <=>    ]
Loaded image: uptimer:latest

Tips: Hvis du trenger en haug med parametere for å koble til en server via SSH, kan det hende du ikke bruker filen ~/.ssh/config.

Overføre bildet via docker image save/load – Dette er den mest minimalistiske metoden, men ikke den eneste. Det er andre:

  1. Container Registry (industristandard).
  2. Koble til docker daemon-server fra en annen vert:
    1. miljøvariabel DOCKER_HOST.
    2. Kommandolinjealternativ -H eller --host verktøy docker-compose.
    3. docker context

Den andre metoden (med tre alternativer for implementering) er godt beskrevet i artikkelen Hvordan distribuere på eksterne Docker-verter med docker-compose.

deploy.sh

La oss nå samle alt vi gjorde manuelt i ett skript. La oss starte med toppnivåfunksjonen, og så se på de andre som brukes i den.

Interessante teknikker

  • ${parameter?err_msg} - en av bash-magiske trollformler (aka parameterbytte). Hvis parameter ikke spesifisert, utgang err_msg og gå ut med kode 1.
  • docker --log-driver journald — som standard er docker-loggingsdriveren en tekstfil uten rotasjon. Med denne tilnærmingen fyller loggene raskt opp hele disken, så for et produksjonsmiljø er det nødvendig å endre driveren til en smartere.

Implementeringsskript

deploy() {
    local usage_msg="Usage: ${FUNCNAME[0]} image_name"
    local image_name=${1?$usage_msg}

    ensure-reverse-proxy || return 2
    if get-active-slot $image_name
    then
        local OLD=${image_name}_BLUE
        local new_slot=GREEN
    else
        local OLD=${image_name}_GREEN
        local new_slot=BLUE
    fi
    local NEW=${image_name}_${new_slot}
    echo "Deploying '$NEW' in place of '$OLD'..."
    docker run 
        --detach 
        --restart always 
        --log-driver journald 
        --name $NEW 
        --network web-gateway 
        $image_name || return 3
    echo "Container started. Checking health..."
    for i in {1..20}
    do
        sleep 1
        if get-service-status $image_name $new_slot
        then
            echo "New '$NEW' service seems OK. Switching heads..."
            sleep 2  # Ensure service is ready
            set-active-slot $image_name $new_slot || return 4
            echo "'$NEW' service is live!"
            sleep 2  # Ensure all requests were processed
            echo "Killing '$OLD'..."
            docker rm -f $OLD
            docker image prune -f
            echo "Deployment successful!"
            return 0
        fi
        echo "New '$NEW' service is not ready yet. Waiting ($i)..."
    done
    echo "New '$NEW' service did not raise, killing it. Failed to deploy T_T"
    docker rm -f $NEW
    return 5
}

Funksjoner som brukes:

  • ensure-reverse-proxy — Sørger for at omvendt proxy fungerer (nyttig for den første distribusjonen)
  • get-active-slot service_name — Bestemmer hvilket spor som for øyeblikket er aktivt for en gitt tjeneste (BLUE eller GREEN)
  • get-service-status service_name deployment_slot — Avgjør om tjenesten er klar til å behandle innkommende forespørsler
  • set-active-slot service_name deployment_slot — Endrer nginx-konfigurasjonen i den omvendte proxy-beholderen

I rekkefølge:

ensure-reverse-proxy() {
    is-container-up reverse-proxy && return 0
    echo "Deploying reverse-proxy..."
    docker network create web-gateway
    docker run 
        --detach 
        --restart always 
        --log-driver journald 
        --name reverse-proxy 
        --network web-gateway 
        --publish 80:80 
        nginx:alpine || return 1
    docker exec --interactive reverse-proxy sh -c "> /etc/nginx/conf.d/default.conf"
    docker exec reverse-proxy nginx -s reload
}

is-container-up() {
    local container=${1?"Usage: ${FUNCNAME[0]} container_name"}

    [ -n "$(docker ps -f name=${container} -q)" ]
    return $?
}

get-active-slot() {
    local service=${1?"Usage: ${FUNCNAME[0]} service_name"}

    if is-container-up ${service}_BLUE && is-container-up ${service}_GREEN; then
        echo "Collision detected! Stopping ${service}_GREEN..."
        docker rm -f ${service}_GREEN
        return 0  # BLUE
    fi
    if is-container-up ${service}_BLUE && ! is-container-up ${service}_GREEN; then
        return 0  # BLUE
    fi
    if ! is-container-up ${service}_BLUE; then
        return 1  # GREEN
    fi
}

get-service-status() {
    local usage_msg="Usage: ${FUNCNAME[0]} service_name deployment_slot"
    local service=${1?usage_msg}
    local slot=${2?$usage_msg}

    case $service in
        # Add specific healthcheck paths for your services here
        *) local health_check_port_path=":8080/" ;;
    esac
    local health_check_address="http://${service}_${slot}${health_check_port_path}"
    echo "Requesting '$health_check_address' within the 'web-gateway' docker network:"
    docker run --rm --network web-gateway alpine 
        wget --timeout=1 --quiet --server-response $health_check_address
    return $?
}

set-active-slot() {
    local usage_msg="Usage: ${FUNCNAME[0]} service_name deployment_slot"
    local service=${1?$usage_msg}
    local slot=${2?$usage_msg}
    [ "$slot" == BLUE ] || [ "$slot" == GREEN ] || return 1

    get-nginx-config $service $slot | docker exec --interactive reverse-proxy sh -c "cat > /etc/nginx/conf.d/$service.conf"
    docker exec reverse-proxy nginx -t || return 2
    docker exec reverse-proxy nginx -s reload
}

Funksjon get-active-slot krever en liten forklaring:

Hvorfor returnerer den et tall og sender ikke ut en streng?

Uansett, i kallefunksjonen sjekker vi resultatet av arbeidet, og å sjekke utgangskode ved hjelp av bash er mye enklere enn å sjekke en streng. I tillegg er det veldig enkelt å få en streng fra den:
get-active-slot service && echo BLUE || echo GREEN.

Er tre forhold virkelig nok til å skille alle stater?

Blågrønn utplassering til minstelønn

Til og med to vil være nok, den siste er her bare for fullstendighetens skyld, for ikke å skrive else.

Bare funksjonen som returnerer nginx-konfigurasjoner forblir udefinert: get-nginx-config service_name deployment_slot. I analogi med helsesjekk, her kan du angi hvilken som helst konfigurasjon for enhver tjeneste. Av de interessante tingene - bare cat <<- EOF, som lar deg fjerne alle faner i begynnelsen. Riktignok er prisen på god formatering blandet faner med mellomrom, som i dag anses som veldig dårlig form. Men bash tvinger tabulatorer, og det ville også vært fint å ha normal formatering i nginx-konfigurasjonen. Kort sagt, å blande faner med mellomrom her virker virkelig som den beste løsningen av det verste. Du vil imidlertid ikke se dette i utdraget nedenfor, siden Habr "gjør det bra" ved å endre alle faner til 4 mellomrom og gjøre EOF ugyldig. Og her merkes det.

For ikke å stå opp to ganger, skal jeg fortelle deg om det med en gang cat << 'EOF', som vil bli oppdaget senere. Hvis du skriver enkelt cat << EOF, så i heredoc blir strengen interpolert (variabler utvides ($foo), kommandoanrop ($(bar)) osv.), og hvis du omslutter slutten av dokumentet i enkle anførselstegn, er interpolasjon deaktivert og symbolet $ vises som den er. Hva du trenger for å sette inn et skript i et annet skript.

get-nginx-config() {
    local usage_msg="Usage: ${FUNCNAME[0]} service_name deployment_slot"
    local service=${1?$usage_msg}
    local slot=${2?$usage_msg}
    [ "$slot" == BLUE ] || [ "$slot" == GREEN ] || return 1

    local container_name=${service}_${slot}
    case $service in
        # Add specific nginx configs for your services here
        *) nginx-config-simple-service $container_name:8080 ;;
    esac
}

nginx-config-simple-service() {
    local usage_msg="Usage: ${FUNCNAME[0]} proxy_pass"
    local proxy_pass=${1?$usage_msg}

cat << EOF
server {
    listen 80;
    location / {
        proxy_pass http://$proxy_pass;
    }
}
EOF
}

Dette er hele manuset. Og så kjernen med dette skriptet for nedlasting via wget eller curl.

Utføre parameteriserte skript på en ekstern server

Det er på tide å banke på målserveren. Denne gangen localhost ganske passende:

$ ssh-copy-id localhost
/usr/bin/ssh-copy-id: INFO: attempting to log in with the new key(s), to filter out any that are already installed
/usr/bin/ssh-copy-id: INFO: 1 key(s) remain to be installed -- if you are prompted now it is to install the new keys
himura@localhost's password: 

Number of key(s) added: 1

Now try logging into the machine, with:   "ssh 'localhost'"
and check to make sure that only the key(s) you wanted were added.

Vi har skrevet et distribusjonsskript som laster ned et forhåndsbygd bilde til målserveren og sømløst erstatter tjenestebeholderen, men hvordan kan vi kjøre det på en ekstern maskin? Skriptet har argumenter, siden det er universelt og kan distribuere flere tjenester samtidig under én omvendt proxy (du kan bruke nginx-konfigurasjoner for å bestemme hvilken url som skal være hvilken tjeneste). Skriptet kan ikke lagres på serveren, siden vi i dette tilfellet ikke vil være i stand til å oppdatere det automatisk (med det formål å rette feil og legge til nye tjenester), og generelt sett state = evil.

Løsning 1: Lagre fortsatt skriptet på serveren, men kopier det hver gang scp. Koble deretter til via ssh og utfør skriptet med de nødvendige argumentene.

Cons:

  • To handlinger i stedet for én
  • Det kan hende at det ikke er et sted du kopierer, eller at det ikke er tilgang til det, eller at skriptet kan kjøres på tidspunktet for erstatning.
  • Det er lurt å rydde opp etter seg (slett scriptet).
  • Allerede tre handlinger.

Løsning 2:

  • Behold bare funksjonsdefinisjoner i skriptet og kjør ingenting i det hele tatt
  • Med sed legg til et funksjonskall til slutten
  • Send alt direkte til shh via pipe (|)

Pros:

  • Virkelig statsløs
  • Ingen boilerplate-enheter
  • Føles kul

La oss bare gjøre det uten Ansible. Ja, alt er allerede oppfunnet. Ja, en sykkel. Se hvor enkel, elegant og minimalistisk sykkelen er:

$ cat << 'EOF' > deploy.sh
#!/bin/bash

usage_msg="Usage: $0 ssh_address local_image_tag"
ssh_address=${1?$usage_msg}
image_name=${2?$usage_msg}

echo "Connecting to '$ssh_address' via ssh to seamlessly deploy '$image_name'..."
( sed "$a deploy $image_name" | ssh -T $ssh_address ) << 'END_OF_SCRIPT'
deploy() {
    echo "Yay! The '${FUNCNAME[0]}' function is executing on '$(hostname)' with argument '$1'"
}
END_OF_SCRIPT
EOF

$ chmod +x deploy.sh

$ ./deploy.sh localhost magic-porridge-pot
Connecting to localhost...
Yay! The 'deploy' function is executing on 'hut' with argument 'magic-porridge-pot'

Vi kan imidlertid ikke være sikre på at den eksterne verten har tilstrekkelig bash, så vi legger til en liten hake i begynnelsen (dette er i stedet for shellbang):

if [ "$SHELL" != "/bin/bash" ]
then
    echo "The '$SHELL' shell is not supported by 'deploy.sh'. Set a '/bin/bash' shell for '$USER@$HOSTNAME'."
    exit 1
fi

Og nå er det virkelig:

$ docker exec reverse-proxy rm /etc/nginx/conf.d/default.conf

$ wget -qO deploy.sh https://git.io/JUURc

$ chmod +x deploy.sh

$ ./deploy.sh localhost uptimer
Sending gzipped image 'uptimer' to 'localhost' via ssh...
Loaded image: uptimer:latest
Connecting to 'localhost' via ssh to seamlessly deploy 'uptimer'...
Deploying 'uptimer_GREEN' in place of 'uptimer_BLUE'...
06f5bc70e9c4f930e7b1f826ae2ca2f536023cc01e82c2b97b2c84d68048b18a
Container started. Checking health...
Requesting 'http://uptimer_GREEN:8080/' within the 'web-gateway' docker network:
  HTTP/1.0 503 Service Unavailable
wget: server returned error: HTTP/1.0 503 Service Unavailable
New 'uptimer_GREEN' service is not ready yet. Waiting (1)...
Requesting 'http://uptimer_GREEN:8080/' within the 'web-gateway' docker network:
  HTTP/1.0 503 Service Unavailable
wget: server returned error: HTTP/1.0 503 Service Unavailable
New 'uptimer_GREEN' service is not ready yet. Waiting (2)...
Requesting 'http://uptimer_GREEN:8080/' within the 'web-gateway' docker network:
  HTTP/1.0 200 OK
  Server: BaseHTTP/0.6 Python/3.8.3
  Date: Sat, 22 Aug 2020 20:15:50 GMT
  Content-Type: text/html

New 'uptimer_GREEN' service seems OK. Switching heads...
nginx: the configuration file /etc/nginx/nginx.conf syntax is ok
nginx: configuration file /etc/nginx/nginx.conf test is successful
2020/08/22 20:15:54 [notice] 97#97: signal process started
The 'uptimer_GREEN' service is live!
Killing 'uptimer_BLUE'...
uptimer_BLUE
Total reclaimed space: 0B
Deployment successful!

Nå kan du åpne http://localhost/ i nettleseren, kjør distribusjonen på nytt og sørg for at den kjører sømløst ved å oppdatere siden i henhold til CD-en under oppsettet.

Ikke glem å rydde opp etter jobb :3

$ docker rm -f uptimer_GREEN reverse-proxy 
uptimer_GREEN
reverse-proxy

$ docker network rm web-gateway 
web-gateway

$ cd ..

$ rm -r blue-green-deployment

Kilde: www.habr.com