Կապույտ-կանաչի տեղակայում նվազագույն աշխատավարձով

Այս հոդվածում մենք օգտագործում ենք ուժեղ հարվածել, ssh, դոկտոր и nginx Մենք կկազմակերպենք վեբ հավելվածի անխափան դասավորությունը: Կապույտ-կանաչ տեղակայում տեխնիկա է, որը թույլ է տալիս ակնթարթորեն թարմացնել հայտը՝ առանց որևէ հարցում մերժելու: Դա զրոյական ժամանակի տեղակայման ռազմավարություններից մեկն է և լավագույնս հարմար է մեկ օրինակով հավելվածների համար, բայց մոտակայքում երկրորդ, գործարկման համար պատրաստ օրինակ բեռնելու հնարավորությամբ:

Ենթադրենք, դուք ունեք վեբ հավելված, որի հետ շատ հաճախորդներ ակտիվորեն աշխատում են, և բացարձակապես ոչ մի կերպ հնարավոր չէ, որ այն մի քանի վայրկյան պառկի։ Եվ դուք իսկապես պետք է թողարկեք գրադարանի թարմացում, վրիպակների շտկում կամ նոր հետաքրքիր գործառույթ: Նորմալ իրավիճակում դուք պետք է դադարեցնեք հավելվածը, փոխարինեք այն և նորից գործարկեք: Docker-ի դեպքում դուք կարող եք նախ փոխարինել այն, ապա վերագործարկել այն, բայց դեռ կլինի մի ժամանակահատված, երբ դիմումին ուղղված հարցումները չեն մշակվի, քանի որ սովորաբար դիմումը սկզբնական բեռնման համար որոշակի ժամանակ է պահանջում: Իսկ եթե այն սկսվի, բայց պարզվի, որ անգործունակ է: Սա է խնդիրը, եկեք այն լուծենք նվազագույն միջոցներով և հնարավորինս նրբագեղ։

ՀՐԱԺԱՐՈՒՄ. Հոդվածի մեծ մասը ներկայացված է փորձարարական ձևաչափով՝ վահանակի նիստի ձայնագրության տեսքով: Հուսանք, որ սա այնքան էլ դժվար չի լինի հասկանալը, և օրենսգիրքը բավականաչափ կփաստագրի: Մթնոլորտի համար պատկերացրեք, որ դրանք պարզապես կոդի հատվածներ չեն, այլ թուղթ «երկաթյա» հեռատիպից:

Կապույտ-կանաչի տեղակայում նվազագույն աշխատավարձով

Հետաքրքիր մեթոդներ, որոնք դժվար է Google-ի համար պարզապես կարդալով կոդը, նկարագրված են յուրաքանչյուր բաժնի սկզբում: Եթե ​​որևէ այլ բան անհասկանալի է, google-ում և ստուգեք այն: բացատրել կեղևը (բարեբախտաբար, այն կրկին աշխատում է, հեռագրի ապաշրջափակման պատճառով): Եթե ​​Google-ում ոչինչ չեք կարողանում գտնել, հարցրեք մեկնաբանություններում։ Ուրախ կլինեմ ավելացնել համապատասխան «Հետաքրքիր տեխնիկա» բաժինը:

Եկեք սկսենք.

$ mkdir blue-green-deployment && cd $_

Ծառայություն

Եկեք փորձարարական ծառայություն պատրաստենք և տեղադրենք տարայի մեջ։

Հետաքրքիր տեխնիկա

  • cat << EOF > file-name (Այստեղ Փաստաթուղթ + I/O վերահղում) մեկ հրամանով բազմագիծ ֆայլ ստեղծելու միջոց է։ Ամեն ինչ բաշը կարդում է /dev/stdin այս տողից հետո և տողից առաջ EOF կգրանցվի file-name.
  • wget -qO- URL (բացատրել կեղևը) — թողարկեք HTTP-ով ստացված փաստաթուղթը /dev/stdout (անալոգային curl URL).

Տպել

Ես հատուկ կոտրում եմ հատվածը՝ Python-ի համար ընդգծումը հնարավոր դարձնելու համար: Վերջում կլինի ևս մեկ այսպիսի կտոր. Հաշվի առեք, որ այս վայրերում թուղթը կտրվում էր, որպեսզի ուղարկվի ընդգծման բաժին (որտեղ ծածկագիրը ձեռքով գունավորված էր լուսարձակող սարքերով), այնուհետև այդ կտորները սոսնձվեցին:

$ cat << EOF > uptimer.py
from http.server import BaseHTTPRequestHandler, HTTPServer
from time import monotonic

app_version = 1
app_name = f'Uptimer v{app_version}.0'
loading_seconds = 15 - app_version * 5

class Handler(BaseHTTPRequestHandler):
    def do_GET(self):
        if self.path == '/':
            try:
                t = monotonic() - server_start
                if t < loading_seconds:
                    self.send_error(503)
                else:
                    self.send_response(200)
                    self.send_header('Content-Type', 'text/html')
                    self.end_headers()
                    response = f'<h2>{app_name} is running for {t:3.1f} seconds.</h2>n'
                    self.wfile.write(response.encode('utf-8'))
            except Exception:
                self.send_error(500)
        else:
            self.send_error(404)

httpd = HTTPServer(('', 8080), Handler)
server_start = monotonic()
print(f'{app_name} (loads in {loading_seconds} sec.) started.')
httpd.serve_forever()
EOF

$ cat << EOF > Dockerfile
FROM python:alpine
EXPOSE 8080
COPY uptimer.py app.py
CMD [ "python", "-u", "./app.py" ]
EOF

$ docker build --tag uptimer .
Sending build context to Docker daemon  39.42kB
Step 1/4 : FROM python:alpine
 ---> 8ecf5a48c789
Step 2/4 : EXPOSE 8080
 ---> Using cache
 ---> cf92d174c9d3
Step 3/4 : COPY uptimer.py app.py
 ---> a7fbb33d6b7e
Step 4/4 : CMD [ "python", "-u", "./app.py" ]
 ---> Running in 1906b4bd9fdf
Removing intermediate container 1906b4bd9fdf
 ---> c1655b996fe8
Successfully built c1655b996fe8
Successfully tagged uptimer:latest

$ docker run --rm --detach --name uptimer --publish 8080:8080 uptimer
8f88c944b8bf78974a5727070a94c76aa0b9bb2b3ecf6324b784e782614b2fbf

$ docker ps
CONTAINER ID        IMAGE               COMMAND                CREATED             STATUS              PORTS                    NAMES
8f88c944b8bf        uptimer             "python -u ./app.py"   3 seconds ago       Up 5 seconds        0.0.0.0:8080->8080/tcp   uptimer

$ docker logs uptimer
Uptimer v1.0 (loads in 10 sec.) started.

$ wget -qSO- http://localhost:8080
  HTTP/1.0 503 Service Unavailable
  Server: BaseHTTP/0.6 Python/3.8.3
  Date: Sat, 22 Aug 2020 19:52:40 GMT
  Connection: close
  Content-Type: text/html;charset=utf-8
  Content-Length: 484

$ wget -qSO- http://localhost:8080
  HTTP/1.0 200 OK
  Server: BaseHTTP/0.6 Python/3.8.3
  Date: Sat, 22 Aug 2020 19:52:45 GMT
  Content-Type: text/html
<h2>Uptimer v1.0 is running for 15.4 seconds.</h2>

$ docker rm --force uptimer
uptimer

Հակադարձ վստահված անձ

Որպեսզի մեր հավելվածը կարողանա աննկատ փոխվել, անհրաժեշտ է, որ դրա դիմաց լինի ինչ-որ այլ սուբյեկտ, որը կթաքցնի իր փոխարինումը։ Դա կարող է լինել վեբ սերվեր nginx в հակադարձ վստահված անձի ռեժիմ. Հաճախորդի և հավելվածի միջև ստեղծվում է հակադարձ վստահված անձ: Այն ընդունում է հաճախորդների հարցումները և դրանք ուղարկում հավելվածին և դիմումի պատասխանները փոխանցում հաճախորդներին:

Հավելվածը և հակադարձ վստահված անձը կարող են կապվել դոկերի ներսում՝ օգտագործելով դոկեր ցանց. Այսպիսով, հավելվածով բեռնարկղը նույնիսկ կարիք չունի պորտ փոխանցելու հյուրընկալող համակարգին, սա թույլ է տալիս հավելվածին առավելագույնս մեկուսացնել արտաքին սպառնալիքներից:

Եթե ​​հակադարձ պրոքսին ապրում է մեկ այլ հոսթի վրա, դուք ստիպված կլինեք լքել դոկերի ցանցը և հավելվածը միացնել հակադարձ պրոքսիին հոսթ ցանցի միջոցով՝ փոխանցելով պորտը: հավելվածներ պարամետր --publish, ինչպես առաջին սկզբում, այնպես էլ հակառակ պրոքսիի դեպքում:

Մենք գործարկելու ենք հակադարձ պրոքսի 80 նավահանգստի վրա, քանի որ սա հենց այն կազմակերպությունն է, որը պետք է լսի արտաքին ցանցը: Եթե ​​80 նավահանգիստը զբաղված է ձեր փորձնական հոսթում, փոխեք պարամետրը --publish 80:80 մասին --publish ANY_FREE_PORT:80.

Հետաքրքիր տեխնիկա

Տպել

$ docker network create web-gateway
5dba128fb3b255b02ac012ded1906b7b4970b728fb7db3dbbeccc9a77a5dd7bd

$ docker run --detach --rm --name uptimer --network web-gateway uptimer
a1105f1b583dead9415e99864718cc807cc1db1c763870f40ea38bc026e2d67f

$ docker run --rm --network web-gateway alpine wget -qO- http://uptimer:8080
<h2>Uptimer v1.0 is running for 11.5 seconds.</h2>

$ docker run --detach --publish 80:80 --network web-gateway --name reverse-proxy nginx:alpine
80695a822c19051260c66bf60605dcb4ea66802c754037704968bc42527bf120

$ docker ps
CONTAINER ID        IMAGE               COMMAND                  CREATED              STATUS              PORTS                NAMES
80695a822c19        nginx:alpine        "/docker-entrypoint.…"   27 seconds ago       Up 25 seconds       0.0.0.0:80->80/tcp   reverse-proxy
a1105f1b583d        uptimer             "python -u ./app.py"     About a minute ago   Up About a minute   8080/tcp             uptimer

$ cat << EOF > uptimer.conf
server {
    listen 80;
    location / {
        proxy_pass http://uptimer:8080;
    }
}
EOF

$ docker cp ./uptimer.conf reverse-proxy:/etc/nginx/conf.d/default.conf

$ docker exec reverse-proxy nginx -s reload
2020/06/23 20:51:03 [notice] 31#31: signal process started

$ wget -qSO- http://localhost
  HTTP/1.1 200 OK
  Server: nginx/1.19.0
  Date: Sat, 22 Aug 2020 19:56:24 GMT
  Content-Type: text/html
  Transfer-Encoding: chunked
  Connection: keep-alive
<h2>Uptimer v1.0 is running for 104.1 seconds.</h2>

Անխափան տեղակայում

Եկեք թողարկենք հավելվածի նոր տարբերակը (գործարկման կատարողականի կրկնակի բարձրացումով) և փորձենք այն անխափան տեղակայել:

Հետաքրքիր տեխնիկա

  • echo 'my text' | docker exec -i my-container sh -c 'cat > /my-file.txt' - Գրել տեքստ my text ներկայացնել /my-file.txt տարայի ներսում my-container.
  • cat > /my-file.txt — Գրեք ստանդարտ մուտքագրման բովանդակությունը ֆայլում /dev/stdin.

Տպել

$ sed -i "s/app_version = 1/app_version = 2/" uptimer.py

$ docker build --tag uptimer .
Sending build context to Docker daemon  39.94kB
Step 1/4 : FROM python:alpine
 ---> 8ecf5a48c789
Step 2/4 : EXPOSE 8080
 ---> Using cache
 ---> cf92d174c9d3
Step 3/4 : COPY uptimer.py app.py
 ---> 3eca6a51cb2d
Step 4/4 : CMD [ "python", "-u", "./app.py" ]
 ---> Running in 8f13c6d3d9e7
Removing intermediate container 8f13c6d3d9e7
 ---> 1d56897841ec
Successfully built 1d56897841ec
Successfully tagged uptimer:latest

$ docker run --detach --rm --name uptimer_BLUE --network web-gateway uptimer
96932d4ca97a25b1b42d1b5f0ede993b43f95fac3c064262c5c527e16c119e02

$ docker logs uptimer_BLUE
Uptimer v2.0 (loads in 5 sec.) started.

$ docker run --rm --network web-gateway alpine wget -qO- http://uptimer_BLUE:8080
<h2>Uptimer v2.0 is running for 23.9 seconds.</h2>

$ sed s/uptimer/uptimer_BLUE/ uptimer.conf | docker exec --interactive reverse-proxy sh -c 'cat > /etc/nginx/conf.d/default.conf'

$ docker exec reverse-proxy cat /etc/nginx/conf.d/default.conf
server {
    listen 80;
    location / {
        proxy_pass http://uptimer_BLUE:8080;
    }
}

$ docker exec reverse-proxy nginx -s reload
2020/06/25 21:22:23 [notice] 68#68: signal process started

$ wget -qO- http://localhost
<h2>Uptimer v2.0 is running for 63.4 seconds.</h2>

$ docker rm -f uptimer
uptimer

$ wget -qO- http://localhost
<h2>Uptimer v2.0 is running for 84.8 seconds.</h2>

$ docker ps
CONTAINER ID        IMAGE               COMMAND                  CREATED              STATUS              PORTS                NAMES
96932d4ca97a        uptimer             "python -u ./app.py"     About a minute ago   Up About a minute   8080/tcp             uptimer_BLUE
80695a822c19        nginx:alpine        "/docker-entrypoint.…"   8 minutes ago        Up 8 minutes        0.0.0.0:80->80/tcp   reverse-proxy

Այս փուլում պատկերը կառուցվում է անմիջապես սերվերի վրա, ինչը պահանջում է, որ հավելվածի աղբյուրները լինեն այնտեղ, ինչպես նաև սերվերը բեռնում է ավելորդ աշխատանքով։ Հաջորդ քայլը պատկերի հավաքումն առանձին մեքենային հատկացնելն է (օրինակ՝ CI համակարգին) և այն փոխանցել սերվերին:

Պատկերների փոխանցում

Ցավոք, իմաստ չունի պատկերները localhost-ից localhost տեղափոխել, այնպես որ այս բաժինը կարող է ուսումնասիրվել միայն այն դեպքում, եթե դուք ունեք երկու հոսթ՝ Docker-ով ձեռքի տակ: Նվազագույնը մոտավորապես այսպիսի տեսք ունի.

$ ssh production-server docker image ls
REPOSITORY          TAG                 IMAGE ID            CREATED             SIZE

$ docker image save uptimer | ssh production-server 'docker image load'
Loaded image: uptimer:latest

$ ssh production-server docker image ls
REPOSITORY          TAG                 IMAGE ID            CREATED             SIZE
uptimer             latest              1d56897841ec        5 minutes ago       78.9MB

Թիմ docker save պահպանում է պատկերի տվյալները .tar արխիվում, այսինքն՝ այն կշռում է մոտ 1.5 անգամ ավելի, քան սեղմված ձևով: Այսպիսով, եկեք թափահարենք այն՝ հանուն ժամանակի և երթևեկության խնայողության.

$ docker image save uptimer | gzip | ssh production-server 'zcat | docker image load'
Loaded image: uptimer:latest

Կարող եք նաև վերահսկել ներբեռնման գործընթացը (չնայած դա պահանջում է երրորդ կողմի կոմունալ ծրագիր).

$ docker image save uptimer | gzip | pv | ssh production-server 'zcat | docker image load'
25,7MiB 0:01:01 [ 425KiB/s] [                   <=>    ]
Loaded image: uptimer:latest

Հուշում. Եթե Ձեզ անհրաժեշտ են մի շարք պարամետրեր՝ SSH-ի միջոցով սերվերին միանալու համար, հնարավոր է, որ ֆայլը չօգտագործեք: ~/.ssh/config.

Պատկերի փոխանցում միջոցով docker image save/load -Սա ամենամինիմալիստական ​​մեթոդն է, բայց ոչ միակը։ Կան ուրիշներ.

  1. Կոնտեյներների գրանցամատյան (արդյունաբերության ստանդարտ):
  2. Միացեք docker daemon սերվերին այլ հոսթից.
    1. շրջակա միջավայրի փոփոխական DOCKER_HOST.
    2. Հրամանի տող տարբերակ -H կամ --host գործիք docker-compose.
    3. docker context

Երկրորդ մեթոդը (դրա իրականացման երեք տարբերակով) լավ նկարագրված է հոդվածում Ինչպես տեղակայել Docker-ի հեռավոր հոսթերների վրա docker-compose-ով.

deploy.sh

Հիմա եկեք հավաքենք այն ամենը, ինչ մենք արել ենք ձեռքով մեկ սցենարի մեջ: Սկսենք վերին մակարդակի ֆունկցիայից, ապա նայենք դրանում օգտագործվող մյուսներին:

Հետաքրքիր տեխնիկա

  • ${parameter?err_msg} - Բաշի կախարդական կախարդանքներից մեկը (aka պարամետրի փոխարինում) Եթե parameter նշված չէ, ելք err_msg և դուրս գալ 1 կոդով:
  • docker --log-driver journald — լռելյայնորեն, docker logging վարորդը տեքստային ֆայլ է առանց որևէ ռոտացիայի: Այս մոտեցմամբ տեղեկամատյանները արագորեն լցվում են ամբողջ սկավառակը, ուստի արտադրական միջավայրի համար անհրաժեշտ է փոխել դրայվերը ավելի խելացի:

Տեղակայման սցենար

deploy() {
    local usage_msg="Usage: ${FUNCNAME[0]} image_name"
    local image_name=${1?$usage_msg}

    ensure-reverse-proxy || return 2
    if get-active-slot $image_name
    then
        local OLD=${image_name}_BLUE
        local new_slot=GREEN
    else
        local OLD=${image_name}_GREEN
        local new_slot=BLUE
    fi
    local NEW=${image_name}_${new_slot}
    echo "Deploying '$NEW' in place of '$OLD'..."
    docker run 
        --detach 
        --restart always 
        --log-driver journald 
        --name $NEW 
        --network web-gateway 
        $image_name || return 3
    echo "Container started. Checking health..."
    for i in {1..20}
    do
        sleep 1
        if get-service-status $image_name $new_slot
        then
            echo "New '$NEW' service seems OK. Switching heads..."
            sleep 2  # Ensure service is ready
            set-active-slot $image_name $new_slot || return 4
            echo "'$NEW' service is live!"
            sleep 2  # Ensure all requests were processed
            echo "Killing '$OLD'..."
            docker rm -f $OLD
            docker image prune -f
            echo "Deployment successful!"
            return 0
        fi
        echo "New '$NEW' service is not ready yet. Waiting ($i)..."
    done
    echo "New '$NEW' service did not raise, killing it. Failed to deploy T_T"
    docker rm -f $NEW
    return 5
}

Օգտագործված հատկանիշներ.

  • ensure-reverse-proxy — Համոզված է, որ հակադարձ պրոքսին աշխատում է (օգտակար առաջին տեղակայման համար)
  • get-active-slot service_name — Որոշում է, թե որ տեղն է ներկայումս ակտիվ տվյալ ծառայության համար (BLUE կամ GREEN)
  • get-service-status service_name deployment_slot — Որոշում է, թե արդյոք ծառայությունը պատրաստ է մշակել մուտքային հարցումները
  • set-active-slot service_name deployment_slot — Փոխում է nginx կազմաձևը հակադարձ պրոքսի կոնտեյներով

Որպեսզի:

ensure-reverse-proxy() {
    is-container-up reverse-proxy && return 0
    echo "Deploying reverse-proxy..."
    docker network create web-gateway
    docker run 
        --detach 
        --restart always 
        --log-driver journald 
        --name reverse-proxy 
        --network web-gateway 
        --publish 80:80 
        nginx:alpine || return 1
    docker exec --interactive reverse-proxy sh -c "> /etc/nginx/conf.d/default.conf"
    docker exec reverse-proxy nginx -s reload
}

is-container-up() {
    local container=${1?"Usage: ${FUNCNAME[0]} container_name"}

    [ -n "$(docker ps -f name=${container} -q)" ]
    return $?
}

get-active-slot() {
    local service=${1?"Usage: ${FUNCNAME[0]} service_name"}

    if is-container-up ${service}_BLUE && is-container-up ${service}_GREEN; then
        echo "Collision detected! Stopping ${service}_GREEN..."
        docker rm -f ${service}_GREEN
        return 0  # BLUE
    fi
    if is-container-up ${service}_BLUE && ! is-container-up ${service}_GREEN; then
        return 0  # BLUE
    fi
    if ! is-container-up ${service}_BLUE; then
        return 1  # GREEN
    fi
}

get-service-status() {
    local usage_msg="Usage: ${FUNCNAME[0]} service_name deployment_slot"
    local service=${1?usage_msg}
    local slot=${2?$usage_msg}

    case $service in
        # Add specific healthcheck paths for your services here
        *) local health_check_port_path=":8080/" ;;
    esac
    local health_check_address="http://${service}_${slot}${health_check_port_path}"
    echo "Requesting '$health_check_address' within the 'web-gateway' docker network:"
    docker run --rm --network web-gateway alpine 
        wget --timeout=1 --quiet --server-response $health_check_address
    return $?
}

set-active-slot() {
    local usage_msg="Usage: ${FUNCNAME[0]} service_name deployment_slot"
    local service=${1?$usage_msg}
    local slot=${2?$usage_msg}
    [ "$slot" == BLUE ] || [ "$slot" == GREEN ] || return 1

    get-nginx-config $service $slot | docker exec --interactive reverse-proxy sh -c "cat > /etc/nginx/conf.d/$service.conf"
    docker exec reverse-proxy nginx -t || return 2
    docker exec reverse-proxy nginx -s reload
}

Ֆունկցիա get-active-slot պահանջում է մի փոքր բացատրություն.

Ինչու՞ է այն վերադարձնում թիվ և չի թողարկում տող:

Համենայն դեպս, զանգի ֆունկցիայի մեջ մենք ստուգում ենք դրա աշխատանքի արդյունքը, և bash-ի միջոցով ելքի կոդը ստուգելը շատ ավելի հեշտ է, քան տողը: Բացի այդ, դրանից լար ստանալը շատ պարզ է.
get-active-slot service && echo BLUE || echo GREEN.

Արդյո՞ք երեք պայմանն իսկապես բավարա՞ր է բոլոր պետությունները տարբերելու համար:

Կապույտ-կանաչի տեղակայում նվազագույն աշխատավարձով

Անգամ երկուսը կբավականացնեն, վերջինն այստեղ է միայն ամբողջականության համար, որպեսզի չգրեմ else.

Միայն այն ֆունկցիան, որը վերադարձնում է nginx կոնֆիգուրացիաները, մնում է չսահմանված. get-nginx-config service_name deployment_slot. Առողջության ստուգման անալոգիայով այստեղ դուք կարող եք ցանկացած ծառայության համար սահմանել ցանկացած կոնֆիգուրացիա: Հետաքրքիր բաներից՝ միայն cat <<- EOF, որը թույլ է տալիս սկզբում հեռացնել բոլոր ներդիրները: Ճիշտ է, լավ ֆորմատավորման գինը խառնվում է ներդիրները բացատների հետ, որն այսօր համարվում է շատ վատ ձև: Բայց bash-ը ստիպում է ներդիրներին, և լավ կլինի նաև նորմալ ձևաչափում ունենալ nginx կոնֆիգուրայում: Մի խոսքով, ներդիրները բացատների հետ խառնելն այստեղ իսկապես թվում է լավագույն լուծումը վատագույններից: Այնուամենայնիվ, դուք սա չեք տեսնի ստորև բերված հատվածում, քանի որ Habr-ը «լավ է անում»՝ փոխելով բոլոր ներդիրները 4 բացատների և EOF-ն անվավեր դարձնելով։ Եվ այստեղ նկատելի է.

Որպեսզի երկու անգամ արթնանամ, ես ձեզ անմիջապես կասեմ դրա մասին cat << 'EOF', որը կհանդիպենք ավելի ուշ։ Եթե ​​ուղղակի գրեք cat << EOF, այնուհետև heredoc-ի ներսում տողը ինտերպոլացված է (փոփոխականներն ընդլայնվում են ($foo), հրամանի կանչեր ($(bar)) և այլն), և եթե փաստաթղթի վերջը փակցնում եք միայնակ չակերտների մեջ, ապա ինտերպոլացիան անջատված է և նշանը $ ցուցադրվում է այնպես, ինչպես կա: Այն, ինչ ձեզ հարկավոր է սկրիպտը մեկ այլ սցենարի ներսում տեղադրելու համար:

get-nginx-config() {
    local usage_msg="Usage: ${FUNCNAME[0]} service_name deployment_slot"
    local service=${1?$usage_msg}
    local slot=${2?$usage_msg}
    [ "$slot" == BLUE ] || [ "$slot" == GREEN ] || return 1

    local container_name=${service}_${slot}
    case $service in
        # Add specific nginx configs for your services here
        *) nginx-config-simple-service $container_name:8080 ;;
    esac
}

nginx-config-simple-service() {
    local usage_msg="Usage: ${FUNCNAME[0]} proxy_pass"
    local proxy_pass=${1?$usage_msg}

cat << EOF
server {
    listen 80;
    location / {
        proxy_pass http://$proxy_pass;
    }
}
EOF
}

Սա ամբողջ սցենարն է: Եւ այսպես էությունը այս սցենարով wget-ի կամ curl-ի միջոցով ներբեռնելու համար:

Պարամետրացված սկրիպտների կատարում հեռավոր սերվերի վրա

Ժամանակն է թակելու թիրախային սերվերը: Այս անգամ localhost բավականին հարմար:

$ ssh-copy-id localhost
/usr/bin/ssh-copy-id: INFO: attempting to log in with the new key(s), to filter out any that are already installed
/usr/bin/ssh-copy-id: INFO: 1 key(s) remain to be installed -- if you are prompted now it is to install the new keys
himura@localhost's password: 

Number of key(s) added: 1

Now try logging into the machine, with:   "ssh 'localhost'"
and check to make sure that only the key(s) you wanted were added.

Մենք գրել ենք տեղակայման սկրիպտ, որը ներբեռնում է նախապես կառուցված պատկերը թիրախային սերվերում և անխափան փոխարինում ծառայության կոնտեյները, բայց ինչպե՞ս կարող ենք այն գործարկել հեռավոր մեքենայի վրա: Սցենարն ունի փաստարկներ, քանի որ այն ունիվերսալ է և կարող է միաժամանակ մի քանի ծառայություններ տեղակայել մեկ հակադարձ պրոքսիի տակ (կարող եք օգտագործել nginx կոնֆիգուրացիաները՝ որոշելու համար, թե որ url-ը որ ծառայությունն է լինելու): Սկրիպտը չի կարող պահվել սերվերում, քանի որ այս դեպքում մենք չենք կարողանա այն ավտոմատ կերպով թարմացնել (սխալների շտկման և նոր ծառայություններ ավելացնելու նպատակով), իսկ ընդհանրապես՝ վիճակ=չար։

Լուծում 1. Դեռևս պահեք սկրիպտը սերվերում, բայց ամեն անգամ պատճենեք այն scp. Այնուհետև միացեք միջոցով ssh և կատարիր սցենարը անհրաժեշտ փաստարկներով։

Դեմ:

  • Երկու գործողություն մեկի փոխարեն
  • Հնարավոր է, որ չկա մի տեղ, որտեղ դուք պատճենում եք, կամ կարող է մուտք գործել այն, կամ սցենարը կարող է կատարվել փոխարինման պահին:
  • Ցանկալի է մաքրել ձեր հետևից (ջնջել սցենարը):
  • Արդեն երեք գործողություն.

Լուծում 2:

  • Պահպանեք միայն գործառույթների սահմանումները սկրիպտում և ընդհանրապես ոչինչ գործարկեք
  • Հետ sed վերջում ավելացրեք ֆունկցիայի կանչ
  • Ուղարկեք այն ուղղակիորեն shh-ին խողովակի միջոցով (|)

Կոալիցիայում:

  • Իսկապես քաղաքացիություն չունեցող
  • Չկան կաթսայատներ
  • Թույնի զգացում

Եկեք դա անենք առանց Ansible-ի: Այո, ամեն ինչ արդեն հորինված է։ Այո, հեծանիվ: Տեսեք, թե որքան պարզ, էլեգանտ և մինիմալիստական ​​է հեծանիվը.

$ cat << 'EOF' > deploy.sh
#!/bin/bash

usage_msg="Usage: $0 ssh_address local_image_tag"
ssh_address=${1?$usage_msg}
image_name=${2?$usage_msg}

echo "Connecting to '$ssh_address' via ssh to seamlessly deploy '$image_name'..."
( sed "$a deploy $image_name" | ssh -T $ssh_address ) << 'END_OF_SCRIPT'
deploy() {
    echo "Yay! The '${FUNCNAME[0]}' function is executing on '$(hostname)' with argument '$1'"
}
END_OF_SCRIPT
EOF

$ chmod +x deploy.sh

$ ./deploy.sh localhost magic-porridge-pot
Connecting to localhost...
Yay! The 'deploy' function is executing on 'hut' with argument 'magic-porridge-pot'

Այնուամենայնիվ, մենք չենք կարող վստահ լինել, որ հեռավոր հոսթն ունի համապատասխան բաշ, այնպես որ մենք սկզբում կավելացնենք փոքր ստուգում (սա փոխարենը. shellbang):

if [ "$SHELL" != "/bin/bash" ]
then
    echo "The '$SHELL' shell is not supported by 'deploy.sh'. Set a '/bin/bash' shell for '$USER@$HOSTNAME'."
    exit 1
fi

Իսկ հիմա իրական է.

$ docker exec reverse-proxy rm /etc/nginx/conf.d/default.conf

$ wget -qO deploy.sh https://git.io/JUURc

$ chmod +x deploy.sh

$ ./deploy.sh localhost uptimer
Sending gzipped image 'uptimer' to 'localhost' via ssh...
Loaded image: uptimer:latest
Connecting to 'localhost' via ssh to seamlessly deploy 'uptimer'...
Deploying 'uptimer_GREEN' in place of 'uptimer_BLUE'...
06f5bc70e9c4f930e7b1f826ae2ca2f536023cc01e82c2b97b2c84d68048b18a
Container started. Checking health...
Requesting 'http://uptimer_GREEN:8080/' within the 'web-gateway' docker network:
  HTTP/1.0 503 Service Unavailable
wget: server returned error: HTTP/1.0 503 Service Unavailable
New 'uptimer_GREEN' service is not ready yet. Waiting (1)...
Requesting 'http://uptimer_GREEN:8080/' within the 'web-gateway' docker network:
  HTTP/1.0 503 Service Unavailable
wget: server returned error: HTTP/1.0 503 Service Unavailable
New 'uptimer_GREEN' service is not ready yet. Waiting (2)...
Requesting 'http://uptimer_GREEN:8080/' within the 'web-gateway' docker network:
  HTTP/1.0 200 OK
  Server: BaseHTTP/0.6 Python/3.8.3
  Date: Sat, 22 Aug 2020 20:15:50 GMT
  Content-Type: text/html

New 'uptimer_GREEN' service seems OK. Switching heads...
nginx: the configuration file /etc/nginx/nginx.conf syntax is ok
nginx: configuration file /etc/nginx/nginx.conf test is successful
2020/08/22 20:15:54 [notice] 97#97: signal process started
The 'uptimer_GREEN' service is live!
Killing 'uptimer_BLUE'...
uptimer_BLUE
Total reclaimed space: 0B
Deployment successful!

Այժմ դուք կարող եք բացել http://localhost/ զննարկիչում նորից գործարկեք տեղակայումը և համոզվեք, որ այն անխափան է աշխատում՝ դասավորության ընթացքում էջը թարմացնելով CD-ի համաձայն:

Մի մոռացեք մաքրել աշխատանքից հետո :3

$ docker rm -f uptimer_GREEN reverse-proxy 
uptimer_GREEN
reverse-proxy

$ docker network rm web-gateway 
web-gateway

$ cd ..

$ rm -r blue-green-deployment

Source: www.habr.com