Niebiesko-zielone Wdrożenie przy płacy minimalnej

W tym artykule używamy bash, ssh, doker и nginx Zorganizujemy płynny układ aplikacji internetowej. Niebiesko-zielone wdrożenie to technika, która pozwala na błyskawiczną aktualizację aplikacji bez odrzucania ani jednego żądania. Jest to jedna ze strategii wdrażania zapewniających zerowy czas przestojów i najlepiej nadaje się do aplikacji z jedną instancją, ale z możliwością załadowania drugiej, gotowej do uruchomienia instancji w pobliżu.

Załóżmy, że masz aplikację internetową, z którą aktywnie pracuje wielu klientów i absolutnie nie ma możliwości, aby położyła się na kilka sekund. I naprawdę musisz wdrożyć aktualizację biblioteki, naprawić błąd lub nową, fajną funkcję. W normalnej sytuacji będziesz musiał zatrzymać aplikację, zastąpić ją i uruchomić ponownie. W przypadku dokera można go najpierw wymienić, a następnie zrestartować, jednak nadal będzie istniał okres, w którym żądania do aplikacji nie będą przetwarzane, ponieważ zazwyczaj wstępne załadowanie aplikacji zajmuje trochę czasu. A co jeśli się uruchomi, ale okaże się, że nie da się go uruchomić? To jest problem, rozwiążmy go minimalnymi środkami i tak elegancko, jak to możliwe.

ZASTRZEŻENIE: Większość artykułu zaprezentowana jest w formie eksperymentalnej – w formie nagrania sesji konsoli. Mamy nadzieję, że nie będzie to zbyt trudne do zrozumienia i kod będzie wystarczająco udokumentowany. Dla atmosfery wyobraźcie sobie, że to nie są tylko fragmenty kodu, ale papier z „żelaznego” dalekopisu.

Niebiesko-zielone Wdrożenie przy płacy minimalnej

Na początku każdej sekcji opisane są ciekawe techniki, które trudno wychwycić w Google po prostu czytając kod. Jeśli coś jeszcze jest niejasne, wpisz w Google i sprawdź. wyjaśnienie powłoki (na szczęście znowu działa, ze względu na odblokowanie telegramu). Jeśli nie możesz nic wyszukać w Google, zapytaj w komentarzach. Chętnie dodam do odpowiedniej sekcji „Ciekawe techniki”.

Zacznijmy.

$ mkdir blue-green-deployment && cd $_

Platforma

Zróbmy usługę eksperymentalną i umieśćmy ją w kontenerze.

Ciekawe techniki

  • cat << EOF > file-name (Tutaj dokument + Przekierowanie we/wy) to sposób na utworzenie pliku wielowierszowego za pomocą jednego polecenia. Wszystko, z czego czyta bash /dev/stdin po tej linii i przed linią EOF zostanie zapisany w file-name.
  • wget -qO- URL (wyjaśnienie powłoki) — wyślij dokument otrzymany przez HTTP do /dev/stdout (analog curl URL).

Wydruk

W szczególności łamię fragment, aby włączyć podświetlanie w Pythonie. Na koniec pojawi się kolejny taki kawałek. Weź pod uwagę, że w tych miejscach wycinano papier, który miał trafić do działu zakreślaczy (gdzie kod był ręcznie kolorowany zakreślaczami), a następnie te kawałki zostały sklejone z powrotem.

$ cat << EOF > uptimer.py
from http.server import BaseHTTPRequestHandler, HTTPServer
from time import monotonic

app_version = 1
app_name = f'Uptimer v{app_version}.0'
loading_seconds = 15 - app_version * 5

class Handler(BaseHTTPRequestHandler):
    def do_GET(self):
        if self.path == '/':
            try:
                t = monotonic() - server_start
                if t < loading_seconds:
                    self.send_error(503)
                else:
                    self.send_response(200)
                    self.send_header('Content-Type', 'text/html')
                    self.end_headers()
                    response = f'<h2>{app_name} is running for {t:3.1f} seconds.</h2>n'
                    self.wfile.write(response.encode('utf-8'))
            except Exception:
                self.send_error(500)
        else:
            self.send_error(404)

httpd = HTTPServer(('', 8080), Handler)
server_start = monotonic()
print(f'{app_name} (loads in {loading_seconds} sec.) started.')
httpd.serve_forever()
EOF

$ cat << EOF > Dockerfile
FROM python:alpine
EXPOSE 8080
COPY uptimer.py app.py
CMD [ "python", "-u", "./app.py" ]
EOF

$ docker build --tag uptimer .
Sending build context to Docker daemon  39.42kB
Step 1/4 : FROM python:alpine
 ---> 8ecf5a48c789
Step 2/4 : EXPOSE 8080
 ---> Using cache
 ---> cf92d174c9d3
Step 3/4 : COPY uptimer.py app.py
 ---> a7fbb33d6b7e
Step 4/4 : CMD [ "python", "-u", "./app.py" ]
 ---> Running in 1906b4bd9fdf
Removing intermediate container 1906b4bd9fdf
 ---> c1655b996fe8
Successfully built c1655b996fe8
Successfully tagged uptimer:latest

$ docker run --rm --detach --name uptimer --publish 8080:8080 uptimer
8f88c944b8bf78974a5727070a94c76aa0b9bb2b3ecf6324b784e782614b2fbf

$ docker ps
CONTAINER ID        IMAGE               COMMAND                CREATED             STATUS              PORTS                    NAMES
8f88c944b8bf        uptimer             "python -u ./app.py"   3 seconds ago       Up 5 seconds        0.0.0.0:8080->8080/tcp   uptimer

$ docker logs uptimer
Uptimer v1.0 (loads in 10 sec.) started.

$ wget -qSO- http://localhost:8080
  HTTP/1.0 503 Service Unavailable
  Server: BaseHTTP/0.6 Python/3.8.3
  Date: Sat, 22 Aug 2020 19:52:40 GMT
  Connection: close
  Content-Type: text/html;charset=utf-8
  Content-Length: 484

$ wget -qSO- http://localhost:8080
  HTTP/1.0 200 OK
  Server: BaseHTTP/0.6 Python/3.8.3
  Date: Sat, 22 Aug 2020 19:52:45 GMT
  Content-Type: text/html
<h2>Uptimer v1.0 is running for 15.4 seconds.</h2>

$ docker rm --force uptimer
uptimer

Odwrotne proxy

Aby nasza aplikacja mogła zmienić się niezauważalnie, konieczne jest, aby przed nią stał jakiś inny byt, który ukryje jej zastąpienie. Może to być serwer WWW nginx в tryb odwrotnego proxy. Pomiędzy klientem a aplikacją ustanawiane jest odwrotne proxy. Przyjmuje żądania od klientów i przekazuje je do aplikacji oraz przekazuje odpowiedzi aplikacji do klientów.

Aplikację i odwrotne proxy można połączyć w oknie dokowanym za pomocą sieć dokerów. Tym samym kontener z aplikacją nie musi nawet przekazywać portu w systemie hosta, co pozwala na maksymalne odizolowanie aplikacji od zagrożeń zewnętrznych.

Jeśli odwrotne proxy znajduje się na innym hoście, będziesz musiał porzucić sieć dokującą i połączyć aplikację z odwrotnym proxy przez sieć hosta, przekierowując port приложения parametr --publish, jak przy pierwszym uruchomieniu i jak w przypadku odwrotnego proxy.

Reverse proxy uruchomimy na porcie 80, bo to właśnie ten podmiot powinien nasłuchiwać sieci zewnętrznej. Jeśli port 80 na hoście testowym jest zajęty, zmień parametr --publish 80:80 na --publish ANY_FREE_PORT:80.

Ciekawe techniki

Wydruk

$ docker network create web-gateway
5dba128fb3b255b02ac012ded1906b7b4970b728fb7db3dbbeccc9a77a5dd7bd

$ docker run --detach --rm --name uptimer --network web-gateway uptimer
a1105f1b583dead9415e99864718cc807cc1db1c763870f40ea38bc026e2d67f

$ docker run --rm --network web-gateway alpine wget -qO- http://uptimer:8080
<h2>Uptimer v1.0 is running for 11.5 seconds.</h2>

$ docker run --detach --publish 80:80 --network web-gateway --name reverse-proxy nginx:alpine
80695a822c19051260c66bf60605dcb4ea66802c754037704968bc42527bf120

$ docker ps
CONTAINER ID        IMAGE               COMMAND                  CREATED              STATUS              PORTS                NAMES
80695a822c19        nginx:alpine        "/docker-entrypoint.…"   27 seconds ago       Up 25 seconds       0.0.0.0:80->80/tcp   reverse-proxy
a1105f1b583d        uptimer             "python -u ./app.py"     About a minute ago   Up About a minute   8080/tcp             uptimer

$ cat << EOF > uptimer.conf
server {
    listen 80;
    location / {
        proxy_pass http://uptimer:8080;
    }
}
EOF

$ docker cp ./uptimer.conf reverse-proxy:/etc/nginx/conf.d/default.conf

$ docker exec reverse-proxy nginx -s reload
2020/06/23 20:51:03 [notice] 31#31: signal process started

$ wget -qSO- http://localhost
  HTTP/1.1 200 OK
  Server: nginx/1.19.0
  Date: Sat, 22 Aug 2020 19:56:24 GMT
  Content-Type: text/html
  Transfer-Encoding: chunked
  Connection: keep-alive
<h2>Uptimer v1.0 is running for 104.1 seconds.</h2>

Bezproblemowe wdrażanie

Wdróżmy nową wersję aplikacji (z dwukrotnym zwiększeniem wydajności uruchamiania) i spróbujmy wdrożyć ją bezproblemowo.

Ciekawe techniki

  • echo 'my text' | docker exec -i my-container sh -c 'cat > /my-file.txt' — Napisz tekst my text do pliku /my-file.txt wewnątrz pojemnika my-container.
  • cat > /my-file.txt — Zapisz zawartość standardowego wejścia do pliku /dev/stdin.

Wydruk

$ sed -i "s/app_version = 1/app_version = 2/" uptimer.py

$ docker build --tag uptimer .
Sending build context to Docker daemon  39.94kB
Step 1/4 : FROM python:alpine
 ---> 8ecf5a48c789
Step 2/4 : EXPOSE 8080
 ---> Using cache
 ---> cf92d174c9d3
Step 3/4 : COPY uptimer.py app.py
 ---> 3eca6a51cb2d
Step 4/4 : CMD [ "python", "-u", "./app.py" ]
 ---> Running in 8f13c6d3d9e7
Removing intermediate container 8f13c6d3d9e7
 ---> 1d56897841ec
Successfully built 1d56897841ec
Successfully tagged uptimer:latest

$ docker run --detach --rm --name uptimer_BLUE --network web-gateway uptimer
96932d4ca97a25b1b42d1b5f0ede993b43f95fac3c064262c5c527e16c119e02

$ docker logs uptimer_BLUE
Uptimer v2.0 (loads in 5 sec.) started.

$ docker run --rm --network web-gateway alpine wget -qO- http://uptimer_BLUE:8080
<h2>Uptimer v2.0 is running for 23.9 seconds.</h2>

$ sed s/uptimer/uptimer_BLUE/ uptimer.conf | docker exec --interactive reverse-proxy sh -c 'cat > /etc/nginx/conf.d/default.conf'

$ docker exec reverse-proxy cat /etc/nginx/conf.d/default.conf
server {
    listen 80;
    location / {
        proxy_pass http://uptimer_BLUE:8080;
    }
}

$ docker exec reverse-proxy nginx -s reload
2020/06/25 21:22:23 [notice] 68#68: signal process started

$ wget -qO- http://localhost
<h2>Uptimer v2.0 is running for 63.4 seconds.</h2>

$ docker rm -f uptimer
uptimer

$ wget -qO- http://localhost
<h2>Uptimer v2.0 is running for 84.8 seconds.</h2>

$ docker ps
CONTAINER ID        IMAGE               COMMAND                  CREATED              STATUS              PORTS                NAMES
96932d4ca97a        uptimer             "python -u ./app.py"     About a minute ago   Up About a minute   8080/tcp             uptimer_BLUE
80695a822c19        nginx:alpine        "/docker-entrypoint.…"   8 minutes ago        Up 8 minutes        0.0.0.0:80->80/tcp   reverse-proxy

Na tym etapie obraz budowany jest bezpośrednio na serwerze, co wymaga obecności źródeł aplikacji, a także obciąża serwer niepotrzebną pracą. Następnym krokiem jest przydzielenie zestawu obrazu do osobnej maszyny (na przykład do systemu CI), a następnie przesłanie go na serwer.

Przesyłanie obrazów

Niestety przesyłanie obrazów z hosta lokalnego do hosta lokalnego nie ma sensu, więc tę sekcję można poznać tylko wtedy, gdy masz pod ręką dwa hosty z Dockerem. Minimalnie wygląda to mniej więcej tak:

$ ssh production-server docker image ls
REPOSITORY          TAG                 IMAGE ID            CREATED             SIZE

$ docker image save uptimer | ssh production-server 'docker image load'
Loaded image: uptimer:latest

$ ssh production-server docker image ls
REPOSITORY          TAG                 IMAGE ID            CREATED             SIZE
uptimer             latest              1d56897841ec        5 minutes ago       78.9MB

Zespół docker save zapisuje dane obrazu w archiwum .tar, co oznacza, że ​​waży około 1.5 razy więcej niż w formie skompresowanej. Wstrząśnijmy więc w imię oszczędzania czasu i ruchu:

$ docker image save uptimer | gzip | ssh production-server 'zcat | docker image load'
Loaded image: uptimer:latest

Możesz także monitorować proces pobierania (chociaż wymaga to narzędzia innej firmy):

$ docker image save uptimer | gzip | pv | ssh production-server 'zcat | docker image load'
25,7MiB 0:01:01 [ 425KiB/s] [                   <=>    ]
Loaded image: uptimer:latest

Wskazówka: jeśli potrzebujesz kilku parametrów, aby połączyć się z serwerem przez SSH, być może nie używasz tego pliku ~/.ssh/config.

Przesyłanie obrazu przez docker image save/load - To najbardziej minimalistyczna metoda, ale nie jedyna. Są inni:

  1. Rejestr kontenerów (standard branżowy).
  2. Połącz się z serwerem demona dokującego z innego hosta:
    1. Zmienna środowiskowa DOCKER_HOST.
    2. Opcja wiersza poleceń -H lub --host narzędzie docker-compose.
    3. docker context

Druga metoda (z trzema możliwościami jej wdrożenia) została dobrze opisana w artykule Jak wdrożyć na zdalnych hostach Dockera za pomocą narzędzia docker-compose.

deploy.sh

Teraz zbierzmy wszystko, co zrobiliśmy ręcznie, w jeden skrypt. Zacznijmy od funkcji najwyższego poziomu, a następnie przyjrzyjmy się innym używanym w niej.

Ciekawe techniki

  • ${parameter?err_msg} - jedno z zaklęć magicznych basha (aka podstawienie parametrów). Jeśli parameter nieokreślone, wyjście err_msg i wyjdź z kodem 1.
  • docker --log-driver journald — domyślnie sterownik logowania okna dokowanego jest plikiem tekstowym bez żadnej rotacji. Dzięki takiemu podejściu logi szybko zapełniają cały dysk, dlatego dla środowiska produkcyjnego konieczna jest zmiana sterownika na mądrzejszy.

Skrypt wdrożeniowy

deploy() {
    local usage_msg="Usage: ${FUNCNAME[0]} image_name"
    local image_name=${1?$usage_msg}

    ensure-reverse-proxy || return 2
    if get-active-slot $image_name
    then
        local OLD=${image_name}_BLUE
        local new_slot=GREEN
    else
        local OLD=${image_name}_GREEN
        local new_slot=BLUE
    fi
    local NEW=${image_name}_${new_slot}
    echo "Deploying '$NEW' in place of '$OLD'..."
    docker run 
        --detach 
        --restart always 
        --log-driver journald 
        --name $NEW 
        --network web-gateway 
        $image_name || return 3
    echo "Container started. Checking health..."
    for i in {1..20}
    do
        sleep 1
        if get-service-status $image_name $new_slot
        then
            echo "New '$NEW' service seems OK. Switching heads..."
            sleep 2  # Ensure service is ready
            set-active-slot $image_name $new_slot || return 4
            echo "'$NEW' service is live!"
            sleep 2  # Ensure all requests were processed
            echo "Killing '$OLD'..."
            docker rm -f $OLD
            docker image prune -f
            echo "Deployment successful!"
            return 0
        fi
        echo "New '$NEW' service is not ready yet. Waiting ($i)..."
    done
    echo "New '$NEW' service did not raise, killing it. Failed to deploy T_T"
    docker rm -f $NEW
    return 5
}

Wykorzystane funkcje:

  • ensure-reverse-proxy — Upewnia się, że odwrotne proxy działa (przydatne przy pierwszym wdrożeniu)
  • get-active-slot service_name — Określa, który slot jest aktualnie aktywny dla danej usługi (BLUE lub GREEN)
  • get-service-status service_name deployment_slot — Określa, czy usługa jest gotowa do przetwarzania przychodzących żądań
  • set-active-slot service_name deployment_slot — Zmienia konfigurację Nginx w kontenerze odwrotnego proxy

W celu:

ensure-reverse-proxy() {
    is-container-up reverse-proxy && return 0
    echo "Deploying reverse-proxy..."
    docker network create web-gateway
    docker run 
        --detach 
        --restart always 
        --log-driver journald 
        --name reverse-proxy 
        --network web-gateway 
        --publish 80:80 
        nginx:alpine || return 1
    docker exec --interactive reverse-proxy sh -c "> /etc/nginx/conf.d/default.conf"
    docker exec reverse-proxy nginx -s reload
}

is-container-up() {
    local container=${1?"Usage: ${FUNCNAME[0]} container_name"}

    [ -n "$(docker ps -f name=${container} -q)" ]
    return $?
}

get-active-slot() {
    local service=${1?"Usage: ${FUNCNAME[0]} service_name"}

    if is-container-up ${service}_BLUE && is-container-up ${service}_GREEN; then
        echo "Collision detected! Stopping ${service}_GREEN..."
        docker rm -f ${service}_GREEN
        return 0  # BLUE
    fi
    if is-container-up ${service}_BLUE && ! is-container-up ${service}_GREEN; then
        return 0  # BLUE
    fi
    if ! is-container-up ${service}_BLUE; then
        return 1  # GREEN
    fi
}

get-service-status() {
    local usage_msg="Usage: ${FUNCNAME[0]} service_name deployment_slot"
    local service=${1?usage_msg}
    local slot=${2?$usage_msg}

    case $service in
        # Add specific healthcheck paths for your services here
        *) local health_check_port_path=":8080/" ;;
    esac
    local health_check_address="http://${service}_${slot}${health_check_port_path}"
    echo "Requesting '$health_check_address' within the 'web-gateway' docker network:"
    docker run --rm --network web-gateway alpine 
        wget --timeout=1 --quiet --server-response $health_check_address
    return $?
}

set-active-slot() {
    local usage_msg="Usage: ${FUNCNAME[0]} service_name deployment_slot"
    local service=${1?$usage_msg}
    local slot=${2?$usage_msg}
    [ "$slot" == BLUE ] || [ "$slot" == GREEN ] || return 1

    get-nginx-config $service $slot | docker exec --interactive reverse-proxy sh -c "cat > /etc/nginx/conf.d/$service.conf"
    docker exec reverse-proxy nginx -t || return 2
    docker exec reverse-proxy nginx -s reload
}

Funkcja get-active-slot wymaga małego wyjaśnienia:

Dlaczego zwraca liczbę, a nie wysyła ciąg znaków?

Tak czy inaczej, w funkcji wywołującej sprawdzamy wynik jej działania, a sprawdzenie kodu wyjścia za pomocą basha jest znacznie łatwiejsze niż sprawdzenie ciągu znaków. Ponadto pobranie z niego ciągu znaków jest bardzo proste:
get-active-slot service && echo BLUE || echo GREEN.

Czy rzeczywiście trzy warunki wystarczą, aby rozróżnić wszystkie stany?

Niebiesko-zielone Wdrożenie przy płacy minimalnej

Nawet dwa wystarczą, ostatni jest tutaj tylko dla kompletności, żeby nie pisać else.

Jedynie funkcja zwracająca konfiguracje Nginx pozostaje niezdefiniowana: get-nginx-config service_name deployment_slot. Analogicznie do kontroli stanu, tutaj możesz ustawić dowolną konfigurację dla dowolnej usługi. Z ciekawszych rzeczy - tylko cat <<- EOF, co pozwala na usunięcie wszystkich zakładek na początku. To prawda, że ​​ceną dobrego formatowania są wymieszane tabulatory ze spacjami, co dziś uważane jest za bardzo złą formę. Ale bash wymusza tabulatory i byłoby miło mieć normalne formatowanie w konfiguracji Nginx. Krótko mówiąc, mieszanie tabulatorów ze spacjami naprawdę wydaje się najlepszym rozwiązaniem z najgorszych. Jednak nie zobaczysz tego we fragmencie poniżej, ponieważ Habr „robi to dobrze”, zmieniając wszystkie tabulatory na 4 spacje i unieważniając EOF. I tutaj jest to zauważalne.

Żeby nie wstawać dwa razy, od razu opowiem cat << 'EOF', z którymi spotkamy się później. Jeśli napiszesz prosto cat << EOF, następnie wewnątrz heredoc ciąg znaków jest interpolowany (zmienne są rozwijane ($foo), wywołania poleceń ($(bar)) itp.), a jeśli koniec dokumentu umieścisz w pojedynczym cudzysłowie, wówczas interpolacja zostanie wyłączona, a symbol $ jest wyświetlany tak, jak jest. Czego potrzebujesz, aby wstawić skrypt do innego skryptu.

get-nginx-config() {
    local usage_msg="Usage: ${FUNCNAME[0]} service_name deployment_slot"
    local service=${1?$usage_msg}
    local slot=${2?$usage_msg}
    [ "$slot" == BLUE ] || [ "$slot" == GREEN ] || return 1

    local container_name=${service}_${slot}
    case $service in
        # Add specific nginx configs for your services here
        *) nginx-config-simple-service $container_name:8080 ;;
    esac
}

nginx-config-simple-service() {
    local usage_msg="Usage: ${FUNCNAME[0]} proxy_pass"
    local proxy_pass=${1?$usage_msg}

cat << EOF
server {
    listen 80;
    location / {
        proxy_pass http://$proxy_pass;
    }
}
EOF
}

To jest cały skrypt. A więc sedno tego skryptu do pobrania przez wget lub curl.

Wykonywanie sparametryzowanych skryptów na zdalnym serwerze

Czas zapukać do serwera docelowego. Tym razem localhost całkiem odpowiednie:

$ ssh-copy-id localhost
/usr/bin/ssh-copy-id: INFO: attempting to log in with the new key(s), to filter out any that are already installed
/usr/bin/ssh-copy-id: INFO: 1 key(s) remain to be installed -- if you are prompted now it is to install the new keys
himura@localhost's password: 

Number of key(s) added: 1

Now try logging into the machine, with:   "ssh 'localhost'"
and check to make sure that only the key(s) you wanted were added.

Napisaliśmy skrypt wdrożeniowy, który pobiera gotowy obraz na serwer docelowy i bezproblemowo zastępuje kontener usług, ale jak możemy go uruchomić na zdalnej maszynie? Skrypt ma argumenty, ponieważ jest uniwersalny i może wdrożyć kilka usług jednocześnie w ramach jednego odwrotnego proxy (możesz użyć konfiguracji nginx, aby określić, który adres URL będzie która usługa). Skrypt nie może być przechowywany na serwerze, ponieważ w tym przypadku nie będziemy mogli go automatycznie zaktualizować (w celu usunięcia błędów i dodania nowych usług) i ogólnie stan = zło.

Rozwiązanie 1: Nadal przechowuj skrypt na serwerze, ale kopiuj go za każdym razem scp. Następnie połącz się przez ssh i wykonaj skrypt z niezbędnymi argumentami.

Wady:

  • Dwie akcje zamiast jednej
  • Może nie być miejsca, gdzie można skopiować, może nie być do niego dostępu, lub skrypt może zostać wykonany w momencie podstawienia.
  • Wskazane jest posprzątać po sobie (usunąć skrypt).
  • Już trzy akcje.

Rozwiązanie 2:

  • Zachowaj w skrypcie tylko definicje funkcji i nie uruchamiaj niczego
  • Z sed dodaj wywołanie funkcji na końcu
  • Wyślij wszystko bezpośrednio do shh poprzez potok (|)

Plusy:

  • Prawdziwie bezpaństwowy
  • Brak elementów standardowych
  • Czuję się fajnie

Zróbmy to bez Ansible. Tak, wszystko zostało już wynalezione. Tak, rower. Zobacz jaki prosty, elegancki i minimalistyczny jest rower:

$ cat << 'EOF' > deploy.sh
#!/bin/bash

usage_msg="Usage: $0 ssh_address local_image_tag"
ssh_address=${1?$usage_msg}
image_name=${2?$usage_msg}

echo "Connecting to '$ssh_address' via ssh to seamlessly deploy '$image_name'..."
( sed "$a deploy $image_name" | ssh -T $ssh_address ) << 'END_OF_SCRIPT'
deploy() {
    echo "Yay! The '${FUNCNAME[0]}' function is executing on '$(hostname)' with argument '$1'"
}
END_OF_SCRIPT
EOF

$ chmod +x deploy.sh

$ ./deploy.sh localhost magic-porridge-pot
Connecting to localhost...
Yay! The 'deploy' function is executing on 'hut' with argument 'magic-porridge-pot'

Nie możemy jednak być pewni, czy zdalny host ma odpowiedni bash, dlatego na początku dodamy małą kontrolę (zamiast tego huk):

if [ "$SHELL" != "/bin/bash" ]
then
    echo "The '$SHELL' shell is not supported by 'deploy.sh'. Set a '/bin/bash' shell for '$USER@$HOSTNAME'."
    exit 1
fi

A teraz to jest realne:

$ docker exec reverse-proxy rm /etc/nginx/conf.d/default.conf

$ wget -qO deploy.sh https://git.io/JUURc

$ chmod +x deploy.sh

$ ./deploy.sh localhost uptimer
Sending gzipped image 'uptimer' to 'localhost' via ssh...
Loaded image: uptimer:latest
Connecting to 'localhost' via ssh to seamlessly deploy 'uptimer'...
Deploying 'uptimer_GREEN' in place of 'uptimer_BLUE'...
06f5bc70e9c4f930e7b1f826ae2ca2f536023cc01e82c2b97b2c84d68048b18a
Container started. Checking health...
Requesting 'http://uptimer_GREEN:8080/' within the 'web-gateway' docker network:
  HTTP/1.0 503 Service Unavailable
wget: server returned error: HTTP/1.0 503 Service Unavailable
New 'uptimer_GREEN' service is not ready yet. Waiting (1)...
Requesting 'http://uptimer_GREEN:8080/' within the 'web-gateway' docker network:
  HTTP/1.0 503 Service Unavailable
wget: server returned error: HTTP/1.0 503 Service Unavailable
New 'uptimer_GREEN' service is not ready yet. Waiting (2)...
Requesting 'http://uptimer_GREEN:8080/' within the 'web-gateway' docker network:
  HTTP/1.0 200 OK
  Server: BaseHTTP/0.6 Python/3.8.3
  Date: Sat, 22 Aug 2020 20:15:50 GMT
  Content-Type: text/html

New 'uptimer_GREEN' service seems OK. Switching heads...
nginx: the configuration file /etc/nginx/nginx.conf syntax is ok
nginx: configuration file /etc/nginx/nginx.conf test is successful
2020/08/22 20:15:54 [notice] 97#97: signal process started
The 'uptimer_GREEN' service is live!
Killing 'uptimer_BLUE'...
uptimer_BLUE
Total reclaimed space: 0B
Deployment successful!

Teraz możesz otworzyć http://localhost/ w przeglądarce, uruchom wdrożenie ponownie i upewnij się, że działa ono bezproblemowo, aktualizując stronę zgodnie z płytą CD podczas układania.

Nie zapomnij posprzątać po pracy :3

$ docker rm -f uptimer_GREEN reverse-proxy 
uptimer_GREEN
reverse-proxy

$ docker network rm web-gateway 
web-gateway

$ cd ..

$ rm -r blue-green-deployment

Źródło: www.habr.com