Синьо-зелено разполагане на минимални заплати

В тази статия използваме тряскам, SSH, докер и Nginx Ние ще организираме безпроблемно оформление на уеб приложението. Синьо-зелено разгръщане е техника, която ви позволява незабавно да актуализирате приложение, без да отхвърляте нито една заявка. Това е една от стратегиите за внедряване с нулево време на престой и е най-подходяща за приложения с един екземпляр, но възможност за зареждане на втори, готов за изпълнение екземпляр наблизо.

Да приемем, че имате уеб приложение, с което активно работят много клиенти, и няма абсолютно никакъв начин то да легне за няколко секунди. И наистина трябва да пуснете актуализация на библиотеката, корекция на грешки или нова страхотна функция. В нормална ситуация ще трябва да спрете приложението, да го смените и да го стартирате отново. В случай на docker можете първо да го замените, след това да го рестартирате, но все пак ще има период, в който заявките към приложението няма да се обработват, тъй като обикновено приложението отнема известно време, за да се зареди първоначално. Какво ще стане, ако започне, но се окаже, че не работи? Това е проблемът, нека го решим с минимални средства и възможно най-елегантно.

ОТКАЗ ОТ ОТГОВОРНОСТ: По-голямата част от статията е представена в експериментален формат - под формата на запис на конзолна сесия. Надяваме се, че това няма да е твърде трудно за разбиране и кодът ще се документира достатъчно. За атмосфера си представете, че това не са просто кодови фрагменти, а хартия от „железен“ телетайп.

Синьо-зелено разполагане на минимални заплати

Интересни техники, които са трудни за Google само чрез четене на кода, са описани в началото на всеки раздел. Ако нещо друго не е ясно, потърсете го в Google и го проверете. обяснение (за щастие отново работи, поради деблокирането на телеграмата). Ако не можете да намерите нищо в Google, попитайте в коментарите. Ще се радвам да добавя към съответния раздел „Интересни техники“.

Да започнем.

$ mkdir blue-green-deployment && cd $_

Обслужване

Нека направим експериментален сервиз и го поставим в контейнер.

Интересни техники

  • cat << EOF > file-name (Тук Документ + I/O пренасочване) е начин за създаване на многоредов файл с една команда. Всичко bash чете от /dev/stdin след този ред и преди реда EOF ще бъдат записани в file-name.
  • wget -qO- URL (обяснение) — изведе документ, получен чрез HTTP към /dev/stdout (аналог curl URL).

Принтирам

Специално прекъсвам фрагмента, за да активирам подчертаване за Python. Накрая ще има още едно подобно парче. Помислете, че на тези места хартията е била нарязана, за да бъде изпратена в отдела за подчертаване (където кодът е бил оцветен ръчно с маркери), а след това тези парчета са били залепени обратно.

$ cat << EOF > uptimer.py
from http.server import BaseHTTPRequestHandler, HTTPServer
from time import monotonic

app_version = 1
app_name = f'Uptimer v{app_version}.0'
loading_seconds = 15 - app_version * 5

class Handler(BaseHTTPRequestHandler):
    def do_GET(self):
        if self.path == '/':
            try:
                t = monotonic() - server_start
                if t < loading_seconds:
                    self.send_error(503)
                else:
                    self.send_response(200)
                    self.send_header('Content-Type', 'text/html')
                    self.end_headers()
                    response = f'<h2>{app_name} is running for {t:3.1f} seconds.</h2>n'
                    self.wfile.write(response.encode('utf-8'))
            except Exception:
                self.send_error(500)
        else:
            self.send_error(404)

httpd = HTTPServer(('', 8080), Handler)
server_start = monotonic()
print(f'{app_name} (loads in {loading_seconds} sec.) started.')
httpd.serve_forever()
EOF

$ cat << EOF > Dockerfile
FROM python:alpine
EXPOSE 8080
COPY uptimer.py app.py
CMD [ "python", "-u", "./app.py" ]
EOF

$ docker build --tag uptimer .
Sending build context to Docker daemon  39.42kB
Step 1/4 : FROM python:alpine
 ---> 8ecf5a48c789
Step 2/4 : EXPOSE 8080
 ---> Using cache
 ---> cf92d174c9d3
Step 3/4 : COPY uptimer.py app.py
 ---> a7fbb33d6b7e
Step 4/4 : CMD [ "python", "-u", "./app.py" ]
 ---> Running in 1906b4bd9fdf
Removing intermediate container 1906b4bd9fdf
 ---> c1655b996fe8
Successfully built c1655b996fe8
Successfully tagged uptimer:latest

$ docker run --rm --detach --name uptimer --publish 8080:8080 uptimer
8f88c944b8bf78974a5727070a94c76aa0b9bb2b3ecf6324b784e782614b2fbf

$ docker ps
CONTAINER ID        IMAGE               COMMAND                CREATED             STATUS              PORTS                    NAMES
8f88c944b8bf        uptimer             "python -u ./app.py"   3 seconds ago       Up 5 seconds        0.0.0.0:8080->8080/tcp   uptimer

$ docker logs uptimer
Uptimer v1.0 (loads in 10 sec.) started.

$ wget -qSO- http://localhost:8080
  HTTP/1.0 503 Service Unavailable
  Server: BaseHTTP/0.6 Python/3.8.3
  Date: Sat, 22 Aug 2020 19:52:40 GMT
  Connection: close
  Content-Type: text/html;charset=utf-8
  Content-Length: 484

$ wget -qSO- http://localhost:8080
  HTTP/1.0 200 OK
  Server: BaseHTTP/0.6 Python/3.8.3
  Date: Sat, 22 Aug 2020 19:52:45 GMT
  Content-Type: text/html
<h2>Uptimer v1.0 is running for 15.4 seconds.</h2>

$ docker rm --force uptimer
uptimer

Обратно прокси

За да може нашето приложение да се промени незабелязано, е необходимо пред него да има друг обект, който да скрие заместващия го. Може да е уеб сървър Nginx в режим на обратен прокси. Между клиента и приложението се установява обратен прокси. Той приема заявки от клиенти и ги препраща към приложението и препраща отговорите на приложението към клиентите.

Приложението и обратният прокси сървър могат да бъдат свързани вътре в докер с помощта на докер мрежа. По този начин контейнерът с приложението дори не се нуждае от препращане на порт към хост системата; това позволява приложението да бъде максимално изолирано от външни заплахи.

Ако обратният прокси живее на друг хост, ще трябва да изоставите докер мрежата и да свържете приложението към обратния прокси през хост мрежата, препращайки порта приложения параметър --publish, както при първото стартиране и както при обратното прокси.

Ще стартираме обратния прокси на порт 80, защото точно това е обектът, който трябва да слуша външната мрежа. Ако порт 80 е зает на вашия тестов хост, променете параметъра --publish 80:80 на --publish ANY_FREE_PORT:80.

Интересни техники

Принтирам

$ docker network create web-gateway
5dba128fb3b255b02ac012ded1906b7b4970b728fb7db3dbbeccc9a77a5dd7bd

$ docker run --detach --rm --name uptimer --network web-gateway uptimer
a1105f1b583dead9415e99864718cc807cc1db1c763870f40ea38bc026e2d67f

$ docker run --rm --network web-gateway alpine wget -qO- http://uptimer:8080
<h2>Uptimer v1.0 is running for 11.5 seconds.</h2>

$ docker run --detach --publish 80:80 --network web-gateway --name reverse-proxy nginx:alpine
80695a822c19051260c66bf60605dcb4ea66802c754037704968bc42527bf120

$ docker ps
CONTAINER ID        IMAGE               COMMAND                  CREATED              STATUS              PORTS                NAMES
80695a822c19        nginx:alpine        "/docker-entrypoint.…"   27 seconds ago       Up 25 seconds       0.0.0.0:80->80/tcp   reverse-proxy
a1105f1b583d        uptimer             "python -u ./app.py"     About a minute ago   Up About a minute   8080/tcp             uptimer

$ cat << EOF > uptimer.conf
server {
    listen 80;
    location / {
        proxy_pass http://uptimer:8080;
    }
}
EOF

$ docker cp ./uptimer.conf reverse-proxy:/etc/nginx/conf.d/default.conf

$ docker exec reverse-proxy nginx -s reload
2020/06/23 20:51:03 [notice] 31#31: signal process started

$ wget -qSO- http://localhost
  HTTP/1.1 200 OK
  Server: nginx/1.19.0
  Date: Sat, 22 Aug 2020 19:56:24 GMT
  Content-Type: text/html
  Transfer-Encoding: chunked
  Connection: keep-alive
<h2>Uptimer v1.0 is running for 104.1 seconds.</h2>

Безпроблемно внедряване

Нека пуснем нова версия на приложението (с двукратно увеличение на производителността при стартиране) и да се опитаме да го внедрим безпроблемно.

Интересни техники

  • echo 'my text' | docker exec -i my-container sh -c 'cat > /my-file.txt' — Напишете текст my text да подаде /my-file.txt вътре в контейнера my-container.
  • cat > /my-file.txt — Запишете съдържанието на стандартния вход във файл /dev/stdin.

Принтирам

$ sed -i "s/app_version = 1/app_version = 2/" uptimer.py

$ docker build --tag uptimer .
Sending build context to Docker daemon  39.94kB
Step 1/4 : FROM python:alpine
 ---> 8ecf5a48c789
Step 2/4 : EXPOSE 8080
 ---> Using cache
 ---> cf92d174c9d3
Step 3/4 : COPY uptimer.py app.py
 ---> 3eca6a51cb2d
Step 4/4 : CMD [ "python", "-u", "./app.py" ]
 ---> Running in 8f13c6d3d9e7
Removing intermediate container 8f13c6d3d9e7
 ---> 1d56897841ec
Successfully built 1d56897841ec
Successfully tagged uptimer:latest

$ docker run --detach --rm --name uptimer_BLUE --network web-gateway uptimer
96932d4ca97a25b1b42d1b5f0ede993b43f95fac3c064262c5c527e16c119e02

$ docker logs uptimer_BLUE
Uptimer v2.0 (loads in 5 sec.) started.

$ docker run --rm --network web-gateway alpine wget -qO- http://uptimer_BLUE:8080
<h2>Uptimer v2.0 is running for 23.9 seconds.</h2>

$ sed s/uptimer/uptimer_BLUE/ uptimer.conf | docker exec --interactive reverse-proxy sh -c 'cat > /etc/nginx/conf.d/default.conf'

$ docker exec reverse-proxy cat /etc/nginx/conf.d/default.conf
server {
    listen 80;
    location / {
        proxy_pass http://uptimer_BLUE:8080;
    }
}

$ docker exec reverse-proxy nginx -s reload
2020/06/25 21:22:23 [notice] 68#68: signal process started

$ wget -qO- http://localhost
<h2>Uptimer v2.0 is running for 63.4 seconds.</h2>

$ docker rm -f uptimer
uptimer

$ wget -qO- http://localhost
<h2>Uptimer v2.0 is running for 84.8 seconds.</h2>

$ docker ps
CONTAINER ID        IMAGE               COMMAND                  CREATED              STATUS              PORTS                NAMES
96932d4ca97a        uptimer             "python -u ./app.py"     About a minute ago   Up About a minute   8080/tcp             uptimer_BLUE
80695a822c19        nginx:alpine        "/docker-entrypoint.…"   8 minutes ago        Up 8 minutes        0.0.0.0:80->80/tcp   reverse-proxy

На този етап изображението се изгражда директно на сървъра, което изисква източниците на приложението да са там, а също така натоварва сървъра с ненужна работа. Следващата стъпка е да разпределите комплекта изображение на отделна машина (например към CI система) и след това да го прехвърлите на сървъра.

Прехвърляне на изображения

За съжаление, няма смисъл да прехвърляте изображения от localhost към localhost, така че този раздел може да бъде изследван само ако имате два хоста с Docker под ръка. Най-малкото изглежда така:

$ ssh production-server docker image ls
REPOSITORY          TAG                 IMAGE ID            CREATED             SIZE

$ docker image save uptimer | ssh production-server 'docker image load'
Loaded image: uptimer:latest

$ ssh production-server docker image ls
REPOSITORY          TAG                 IMAGE ID            CREATED             SIZE
uptimer             latest              1d56897841ec        5 minutes ago       78.9MB

Отбор docker save записва данните за изображението в .tar архив, което означава, че тежи около 1.5 пъти повече, отколкото би тежало в компресирана форма. Така че нека го разклатим в името на спестяването на време и трафик:

$ docker image save uptimer | gzip | ssh production-server 'zcat | docker image load'
Loaded image: uptimer:latest

Можете също да наблюдавате процеса на изтегляне (въпреки че това изисква помощна програма на трета страна):

$ docker image save uptimer | gzip | pv | ssh production-server 'zcat | docker image load'
25,7MiB 0:01:01 [ 425KiB/s] [                   <=>    ]
Loaded image: uptimer:latest

Съвет: Ако имате нужда от куп параметри, за да се свържете със сървър чрез SSH, може да не използвате файла ~/.ssh/config.

Прехвърляне на изображението чрез docker image save/load - Това е най-минималистичният метод, но не и единственият. Има и други:

  1. Регистър на контейнери (индустриален стандарт).
  2. Свържете се към докер демон сървър от друг хост:
    1. променлива на средата DOCKER_HOST.
    2. Опция за команден ред -H или --host инструмент docker-compose.
    3. docker context

Вторият метод (с три варианта за прилагането му) е добре описан в статията Как да разположите на отдалечени Docker хостове с docker-compose.

deploy.sh

Сега нека съберем всичко, което направихме ръчно, в един скрипт. Нека започнем с функцията от най-високо ниво и след това да разгледаме другите, използвани в нея.

Интересни техники

  • ${parameter?err_msg} - едно от баш магическите заклинания (известен още като заместване на параметър). Ако parameter не е посочено, изход err_msg и излезте с код 1.
  • docker --log-driver journald — по подразбиране драйверът за регистриране на докер е текстов файл без ротация. С този подход регистрационните файлове бързо запълват целия диск, така че за производствена среда е необходимо да смените драйвера на по-интелигентен.

Скрипт за внедряване

deploy() {
    local usage_msg="Usage: ${FUNCNAME[0]} image_name"
    local image_name=${1?$usage_msg}

    ensure-reverse-proxy || return 2
    if get-active-slot $image_name
    then
        local OLD=${image_name}_BLUE
        local new_slot=GREEN
    else
        local OLD=${image_name}_GREEN
        local new_slot=BLUE
    fi
    local NEW=${image_name}_${new_slot}
    echo "Deploying '$NEW' in place of '$OLD'..."
    docker run 
        --detach 
        --restart always 
        --log-driver journald 
        --name $NEW 
        --network web-gateway 
        $image_name || return 3
    echo "Container started. Checking health..."
    for i in {1..20}
    do
        sleep 1
        if get-service-status $image_name $new_slot
        then
            echo "New '$NEW' service seems OK. Switching heads..."
            sleep 2  # Ensure service is ready
            set-active-slot $image_name $new_slot || return 4
            echo "'$NEW' service is live!"
            sleep 2  # Ensure all requests were processed
            echo "Killing '$OLD'..."
            docker rm -f $OLD
            docker image prune -f
            echo "Deployment successful!"
            return 0
        fi
        echo "New '$NEW' service is not ready yet. Waiting ($i)..."
    done
    echo "New '$NEW' service did not raise, killing it. Failed to deploy T_T"
    docker rm -f $NEW
    return 5
}

Използвани функции:

  • ensure-reverse-proxy — Гарантира, че обратният прокси работи (полезно за първото внедряване)
  • get-active-slot service_name — Определя кой слот е активен в момента за дадена услуга (BLUE или GREEN)
  • get-service-status service_name deployment_slot — Определя дали услугата е готова да обработва входящи заявки
  • set-active-slot service_name deployment_slot — Променя конфигурацията на nginx в обратния прокси контейнер

За да:

ensure-reverse-proxy() {
    is-container-up reverse-proxy && return 0
    echo "Deploying reverse-proxy..."
    docker network create web-gateway
    docker run 
        --detach 
        --restart always 
        --log-driver journald 
        --name reverse-proxy 
        --network web-gateway 
        --publish 80:80 
        nginx:alpine || return 1
    docker exec --interactive reverse-proxy sh -c "> /etc/nginx/conf.d/default.conf"
    docker exec reverse-proxy nginx -s reload
}

is-container-up() {
    local container=${1?"Usage: ${FUNCNAME[0]} container_name"}

    [ -n "$(docker ps -f name=${container} -q)" ]
    return $?
}

get-active-slot() {
    local service=${1?"Usage: ${FUNCNAME[0]} service_name"}

    if is-container-up ${service}_BLUE && is-container-up ${service}_GREEN; then
        echo "Collision detected! Stopping ${service}_GREEN..."
        docker rm -f ${service}_GREEN
        return 0  # BLUE
    fi
    if is-container-up ${service}_BLUE && ! is-container-up ${service}_GREEN; then
        return 0  # BLUE
    fi
    if ! is-container-up ${service}_BLUE; then
        return 1  # GREEN
    fi
}

get-service-status() {
    local usage_msg="Usage: ${FUNCNAME[0]} service_name deployment_slot"
    local service=${1?usage_msg}
    local slot=${2?$usage_msg}

    case $service in
        # Add specific healthcheck paths for your services here
        *) local health_check_port_path=":8080/" ;;
    esac
    local health_check_address="http://${service}_${slot}${health_check_port_path}"
    echo "Requesting '$health_check_address' within the 'web-gateway' docker network:"
    docker run --rm --network web-gateway alpine 
        wget --timeout=1 --quiet --server-response $health_check_address
    return $?
}

set-active-slot() {
    local usage_msg="Usage: ${FUNCNAME[0]} service_name deployment_slot"
    local service=${1?$usage_msg}
    local slot=${2?$usage_msg}
    [ "$slot" == BLUE ] || [ "$slot" == GREEN ] || return 1

    get-nginx-config $service $slot | docker exec --interactive reverse-proxy sh -c "cat > /etc/nginx/conf.d/$service.conf"
    docker exec reverse-proxy nginx -t || return 2
    docker exec reverse-proxy nginx -s reload
}

Функция get-active-slot изисква малко обяснение:

Защо връща число, а не извежда низ?

Както и да е, в извикващата функция проверяваме резултата от нейната работа и проверката на изходния код с помощта на bash е много по-лесна от проверката на низ. Освен това получаването на низ от него е много просто:
get-active-slot service && echo BLUE || echo GREEN.

Наистина ли три условия са достатъчни, за да се разграничат всички състояния?

Синьо-зелено разполагане на минимални заплати

Дори две ще са достатъчни, последната е тук само за пълнота, за да не пиша else.

Само функцията, която връща конфигурациите на nginx, остава недефинирана: get-nginx-config service_name deployment_slot. По аналогия с проверката на здравето, тук можете да зададете всяка конфигурация за всяка услуга. От интересните неща – само cat <<- EOF, което ви позволява да премахнете всички раздели в началото. Вярно е, че цената на доброто форматиране са смесени табулатори с интервали, което днес се счита за много лоша форма. Но bash принуждава раздели и би било хубаво да има нормално форматиране в конфигурацията на nginx. Накратко, смесването на раздели с интервали тук наистина изглежда като най-доброто решение от най-лошото. Въпреки това, няма да видите това в фрагмента по-долу, тъй като Habr „се справя добре“, като променя всички раздели на 4 интервала и прави EOF невалиден. И тук се забелязва.

За да не ставам два пъти, ще ви разкажа веднага cat << 'EOF', които ще се срещнат по-късно. Ако пишете просто cat << EOF, тогава вътре в heredoc низът се интерполира (променливите се разширяват ($foo), командни повиквания ($(bar)) и т.н.), и ако оградите края на документа в единични кавички, тогава интерполацията е деактивирана и символът $ се показва така, както е. Какво ви трябва, за да вмъкнете скрипт в друг скрипт.

get-nginx-config() {
    local usage_msg="Usage: ${FUNCNAME[0]} service_name deployment_slot"
    local service=${1?$usage_msg}
    local slot=${2?$usage_msg}
    [ "$slot" == BLUE ] || [ "$slot" == GREEN ] || return 1

    local container_name=${service}_${slot}
    case $service in
        # Add specific nginx configs for your services here
        *) nginx-config-simple-service $container_name:8080 ;;
    esac
}

nginx-config-simple-service() {
    local usage_msg="Usage: ${FUNCNAME[0]} proxy_pass"
    local proxy_pass=${1?$usage_msg}

cat << EOF
server {
    listen 80;
    location / {
        proxy_pass http://$proxy_pass;
    }
}
EOF
}

Това е целият сценарий. И така същност с този скрипт за изтегляне чрез wget или curl.

Изпълнение на параметризирани скриптове на отдалечен сървър

Време е да почукате на целевия сървър. Този път localhost доста подходящо:

$ ssh-copy-id localhost
/usr/bin/ssh-copy-id: INFO: attempting to log in with the new key(s), to filter out any that are already installed
/usr/bin/ssh-copy-id: INFO: 1 key(s) remain to be installed -- if you are prompted now it is to install the new keys
himura@localhost's password: 

Number of key(s) added: 1

Now try logging into the machine, with:   "ssh 'localhost'"
and check to make sure that only the key(s) you wanted were added.

Написахме скрипт за внедряване, който изтегля предварително изградено изображение на целевия сървър и безпроблемно замества сервизния контейнер, но как можем да го изпълним на отдалечена машина? Скриптът има аргументи, тъй като е универсален и може да внедри няколко услуги наведнъж под един обратен прокси (можете да използвате конфигурациите на nginx, за да определите кой url ще бъде коя услуга). Скриптът не може да се съхранява на сървъра, тъй като в този случай няма да можем да го актуализираме автоматично (с цел корекции на грешки и добавяне на нови услуги) и като цяло състояние = зло.

Решение 1: Все още съхранявайте скрипта на сървъра, но го копирайте всеки път scp. След това се свържете чрез ssh и изпълнете скрипта с необходимите аргументи.

против:

  • Две действия вместо едно
  • Възможно е да няма място, където копирате, или може да няма достъп до него, или скриптът може да се изпълни по време на заместването.
  • Препоръчително е да почистите след себе си (изтрийте скрипта).
  • Вече три действия.

Решение 2:

  • Запазете само дефиниции на функции в скрипта и не изпълнявайте нищо
  • С sed добавете извикване на функция към края
  • Изпратете всичко директно на shh чрез тръба (|)

плюсове:

  • Наистина без гражданство
  • Няма шаблонни обекти
  • Чувствам се готино

Нека просто го направим без Ansible. Да, всичко вече е измислено. Да, велосипед. Вижте колко прост, елегантен и минималистичен е велосипедът:

$ cat << 'EOF' > deploy.sh
#!/bin/bash

usage_msg="Usage: $0 ssh_address local_image_tag"
ssh_address=${1?$usage_msg}
image_name=${2?$usage_msg}

echo "Connecting to '$ssh_address' via ssh to seamlessly deploy '$image_name'..."
( sed "$a deploy $image_name" | ssh -T $ssh_address ) << 'END_OF_SCRIPT'
deploy() {
    echo "Yay! The '${FUNCNAME[0]}' function is executing on '$(hostname)' with argument '$1'"
}
END_OF_SCRIPT
EOF

$ chmod +x deploy.sh

$ ./deploy.sh localhost magic-porridge-pot
Connecting to localhost...
Yay! The 'deploy' function is executing on 'hut' with argument 'magic-porridge-pot'

Не можем обаче да сме сигурни, че отдалеченият хост има адекватен bash, така че ще добавим малка проверка в началото (това е вместо черупков удар):

if [ "$SHELL" != "/bin/bash" ]
then
    echo "The '$SHELL' shell is not supported by 'deploy.sh'. Set a '/bin/bash' shell for '$USER@$HOSTNAME'."
    exit 1
fi

И сега е реално:

$ docker exec reverse-proxy rm /etc/nginx/conf.d/default.conf

$ wget -qO deploy.sh https://git.io/JUURc

$ chmod +x deploy.sh

$ ./deploy.sh localhost uptimer
Sending gzipped image 'uptimer' to 'localhost' via ssh...
Loaded image: uptimer:latest
Connecting to 'localhost' via ssh to seamlessly deploy 'uptimer'...
Deploying 'uptimer_GREEN' in place of 'uptimer_BLUE'...
06f5bc70e9c4f930e7b1f826ae2ca2f536023cc01e82c2b97b2c84d68048b18a
Container started. Checking health...
Requesting 'http://uptimer_GREEN:8080/' within the 'web-gateway' docker network:
  HTTP/1.0 503 Service Unavailable
wget: server returned error: HTTP/1.0 503 Service Unavailable
New 'uptimer_GREEN' service is not ready yet. Waiting (1)...
Requesting 'http://uptimer_GREEN:8080/' within the 'web-gateway' docker network:
  HTTP/1.0 503 Service Unavailable
wget: server returned error: HTTP/1.0 503 Service Unavailable
New 'uptimer_GREEN' service is not ready yet. Waiting (2)...
Requesting 'http://uptimer_GREEN:8080/' within the 'web-gateway' docker network:
  HTTP/1.0 200 OK
  Server: BaseHTTP/0.6 Python/3.8.3
  Date: Sat, 22 Aug 2020 20:15:50 GMT
  Content-Type: text/html

New 'uptimer_GREEN' service seems OK. Switching heads...
nginx: the configuration file /etc/nginx/nginx.conf syntax is ok
nginx: configuration file /etc/nginx/nginx.conf test is successful
2020/08/22 20:15:54 [notice] 97#97: signal process started
The 'uptimer_GREEN' service is live!
Killing 'uptimer_BLUE'...
uptimer_BLUE
Total reclaimed space: 0B
Deployment successful!

Сега можете да отворите http://localhost/ в браузъра стартирайте внедряването отново и се уверете, че работи безпроблемно, като актуализирате страницата според компактдиска по време на оформлението.

Не забравяйте да почистите след работа :3

$ docker rm -f uptimer_GREEN reverse-proxy 
uptimer_GREEN
reverse-proxy

$ docker network rm web-gateway 
web-gateway

$ cd ..

$ rm -r blue-green-deployment

Източник: www.habr.com