Zili-zaļa izvietoŔana ar minimālajām algām

Å ajā rakstā mēs izmantojam stipri iesist, ssh, dokers Šø nginx Mēs organizēsim nevainojamu tÄ«mekļa aplikācijas izkārtojumu. Zili zaļa izvietoÅ”ana ir paņēmiens, kas ļauj nekavējoties atjaunināt lietojumprogrammu, nenoraidot nevienu pieprasÄ«jumu. Tā ir viena no nulles dÄ«kstāves izvietoÅ”anas stratēģijām, un tā ir vislabāk piemērota lietojumprogrammām ar vienu gadÄ«jumu, bet iespēja ielādēt otru, darbam gatavu instanci tuvumā.

Pieņemsim, ka jums ir tÄ«mekļa lietojumprogramma, ar kuru aktÄ«vi strādā daudzi klienti, un tai nav nekādu iespēju uz pāris sekundēm nogulties. Un jums patieŔām ir jāizlaiž bibliotēkas atjauninājums, kļūdu labojums vai jauna lieliska funkcija. Parastā situācijā lietojumprogramma bÅ«s jāpārtrauc, jāaizstāj un jāsāk no jauna. Docker gadÄ«jumā jÅ«s varat to vispirms nomainÄ«t, pēc tam restartēt, taču joprojām bÅ«s periods, kurā lietojumprogrammas pieprasÄ«jumi netiks apstrādāti, jo parasti lietojumprogrammas sākotnējā ielāde prasa zināmu laiku. Ko darÄ«t, ja tas sākas, bet izrādās nederÄ«gs? Tā ir problēma, atrisināsim to ar minimāliem lÄ«dzekļiem un pēc iespējas elegantāk.

ATRUNA: Lielākā daļa raksta ir parādÄ«ta eksperimentālā formātā - konsoles sesijas ieraksta veidā. Cerams, ka to nebÅ«s pārāk grÅ«ti saprast un kods sevi pietiekami dokumentēs. Atmosfērai iedomājieties, ka tie nav tikai koda fragmenti, bet gan papÄ«rs no ā€œdzelzsā€ teletaipa.

Zili-zaļa izvietoŔana ar minimālajām algām

Katras sadaļas sākumā ir aprakstÄ«ti interesanti paņēmieni, kurus Google ir grÅ«ti atrast, vienkārÅ”i izlasot kodu. Ja vēl kaut kas nav skaidrs, meklējiet to Google un pārbaudiet. paskaidrojiet shell (par laimi, tas atkal darbojas, pateicoties telegrammas atbloÄ·Ä“Å”anai). Ja neko nevarat Google, jautājiet komentāros. Ar prieku papildināŔu atbilstoÅ”o sadaļu ā€œInteresanti tehnikaā€.

Sāksim.

$ mkdir blue-green-deployment && cd $_

ApkalpoŔana

Izveidosim eksperimentālu servisu un ievietosim to konteinerā.

Interesantas tehnikas

  • cat << EOF > file-name (Å eit ir dokuments + I/O novirzÄ«Å”ana) ir veids, kā ar vienu komandu izveidot vairāku rindu failu. Viss bash skan no /dev/stdin aiz Ŕīs rindas un pirms rindas EOF tiks ierakstÄ«ts file-name.
  • wget -qO- URL (paskaidrojiet shell) ā€” izvada dokumentu, kas saņemts, izmantojot HTTP, uz /dev/stdout (analogs curl URL).

Izprintēt

Es Ä«paÅ”i pārtraucu fragmentu, lai iespējotu izcelÅ”anu Python. Beigās bÅ«s vēl viens Ŕāds gabals. Ņemiet vērā, ka Å”ajās vietās papÄ«rs tika izgriezts, lai nosÅ«tÄ«tu uz izcelÅ”anas nodaļu (kur kods tika iekrāsots ar rokām ar marÄ·ieriem), un pēc tam Å”ie gabali tika pielÄ«mēti atpakaļ.

$ cat << EOF > uptimer.py
from http.server import BaseHTTPRequestHandler, HTTPServer
from time import monotonic

app_version = 1
app_name = f'Uptimer v{app_version}.0'
loading_seconds = 15 - app_version * 5

class Handler(BaseHTTPRequestHandler):
    def do_GET(self):
        if self.path == '/':
            try:
                t = monotonic() - server_start
                if t < loading_seconds:
                    self.send_error(503)
                else:
                    self.send_response(200)
                    self.send_header('Content-Type', 'text/html')
                    self.end_headers()
                    response = f'<h2>{app_name} is running for {t:3.1f} seconds.</h2>n'
                    self.wfile.write(response.encode('utf-8'))
            except Exception:
                self.send_error(500)
        else:
            self.send_error(404)

httpd = HTTPServer(('', 8080), Handler)
server_start = monotonic()
print(f'{app_name} (loads in {loading_seconds} sec.) started.')
httpd.serve_forever()
EOF

$ cat << EOF > Dockerfile
FROM python:alpine
EXPOSE 8080
COPY uptimer.py app.py
CMD [ "python", "-u", "./app.py" ]
EOF

$ docker build --tag uptimer .
Sending build context to Docker daemon  39.42kB
Step 1/4 : FROM python:alpine
 ---> 8ecf5a48c789
Step 2/4 : EXPOSE 8080
 ---> Using cache
 ---> cf92d174c9d3
Step 3/4 : COPY uptimer.py app.py
 ---> a7fbb33d6b7e
Step 4/4 : CMD [ "python", "-u", "./app.py" ]
 ---> Running in 1906b4bd9fdf
Removing intermediate container 1906b4bd9fdf
 ---> c1655b996fe8
Successfully built c1655b996fe8
Successfully tagged uptimer:latest

$ docker run --rm --detach --name uptimer --publish 8080:8080 uptimer
8f88c944b8bf78974a5727070a94c76aa0b9bb2b3ecf6324b784e782614b2fbf

$ docker ps
CONTAINER ID        IMAGE               COMMAND                CREATED             STATUS              PORTS                    NAMES
8f88c944b8bf        uptimer             "python -u ./app.py"   3 seconds ago       Up 5 seconds        0.0.0.0:8080->8080/tcp   uptimer

$ docker logs uptimer
Uptimer v1.0 (loads in 10 sec.) started.

$ wget -qSO- http://localhost:8080
  HTTP/1.0 503 Service Unavailable
  Server: BaseHTTP/0.6 Python/3.8.3
  Date: Sat, 22 Aug 2020 19:52:40 GMT
  Connection: close
  Content-Type: text/html;charset=utf-8
  Content-Length: 484

$ wget -qSO- http://localhost:8080
  HTTP/1.0 200 OK
  Server: BaseHTTP/0.6 Python/3.8.3
  Date: Sat, 22 Aug 2020 19:52:45 GMT
  Content-Type: text/html
<h2>Uptimer v1.0 is running for 15.4 seconds.</h2>

$ docker rm --force uptimer
uptimer

Reversais starpniekserveris

Lai mÅ«su lietojumprogramma varētu nemanot mainÄ«ties, ir nepiecieÅ”ams, lai tās priekŔā bÅ«tu kāda cita entÄ«tija, kas paslēps tās nomaiņu. Tas varētu bÅ«t tÄ«mekļa serveris nginx Š² apgrieztais starpniekservera režīms. Starp klientu un lietojumprogrammu tiek izveidots apgrieztais starpniekserveris. Tā pieņem klientu pieprasÄ«jumus un pārsÅ«ta tos uz lietojumprogrammu un pārsÅ«ta lietojumprogrammas atbildes klientiem.

Lietojumprogrammu un reverso starpniekserveri var saistÄ«t dokera iekÅ”pusē, izmantojot doku tÄ«kls. Tādējādi konteineram ar lietojumprogrammu pat nav jāpārsÅ«ta resursdatora sistēmas ports; tas ļauj lietojumprogrammu maksimāli izolēt no ārējiem draudiem.

Ja reversais starpniekserveris darbojas citā resursdatorā, jums būs jāatsakās no doka tīkla un lietojumprogramma jāsavieno ar reverso starpniekserveri, izmantojot resursdatora tīklu, pārsūtot portu. progr parametrs --publish, tāpat kā pirmajā startā un kā ar apgriezto starpniekserveri.

Mēs palaidÄ«sim apgriezto starpniekserveri 80. portā, jo tieÅ”i Å”ai entÄ«tijai vajadzētu klausÄ«ties ārējo tÄ«klu. Ja testa resursdatorā ir aizņemts ports 80, mainiet parametru --publish 80:80 par --publish ANY_FREE_PORT:80.

Interesantas tehnikas

Izprintēt

$ docker network create web-gateway
5dba128fb3b255b02ac012ded1906b7b4970b728fb7db3dbbeccc9a77a5dd7bd

$ docker run --detach --rm --name uptimer --network web-gateway uptimer
a1105f1b583dead9415e99864718cc807cc1db1c763870f40ea38bc026e2d67f

$ docker run --rm --network web-gateway alpine wget -qO- http://uptimer:8080
<h2>Uptimer v1.0 is running for 11.5 seconds.</h2>

$ docker run --detach --publish 80:80 --network web-gateway --name reverse-proxy nginx:alpine
80695a822c19051260c66bf60605dcb4ea66802c754037704968bc42527bf120

$ docker ps
CONTAINER ID        IMAGE               COMMAND                  CREATED              STATUS              PORTS                NAMES
80695a822c19        nginx:alpine        "/docker-entrypoint.ā€¦"   27 seconds ago       Up 25 seconds       0.0.0.0:80->80/tcp   reverse-proxy
a1105f1b583d        uptimer             "python -u ./app.py"     About a minute ago   Up About a minute   8080/tcp             uptimer

$ cat << EOF > uptimer.conf
server {
    listen 80;
    location / {
        proxy_pass http://uptimer:8080;
    }
}
EOF

$ docker cp ./uptimer.conf reverse-proxy:/etc/nginx/conf.d/default.conf

$ docker exec reverse-proxy nginx -s reload
2020/06/23 20:51:03 [notice] 31#31: signal process started

$ wget -qSO- http://localhost
  HTTP/1.1 200 OK
  Server: nginx/1.19.0
  Date: Sat, 22 Aug 2020 19:56:24 GMT
  Content-Type: text/html
  Transfer-Encoding: chunked
  Connection: keep-alive
<h2>Uptimer v1.0 is running for 104.1 seconds.</h2>

Nevainojama izvietoŔana

IzlaidÄ«sim jaunu lietojumprogrammas versiju (ar divkārÅ”u startÄ“Å”anas veiktspējas palielinājumu) un mēģināsim to izvietot nemanāmi.

Interesantas tehnikas

  • echo 'my text' | docker exec -i my-container sh -c 'cat > /my-file.txt' ā€” RakstÄ«t tekstu my text uz failu /my-file.txt konteinera iekÅ”pusē my-container.
  • cat > /my-file.txt ā€” Ierakstiet standarta ievades saturu failā /dev/stdin.

Izprintēt

$ sed -i "s/app_version = 1/app_version = 2/" uptimer.py

$ docker build --tag uptimer .
Sending build context to Docker daemon  39.94kB
Step 1/4 : FROM python:alpine
 ---> 8ecf5a48c789
Step 2/4 : EXPOSE 8080
 ---> Using cache
 ---> cf92d174c9d3
Step 3/4 : COPY uptimer.py app.py
 ---> 3eca6a51cb2d
Step 4/4 : CMD [ "python", "-u", "./app.py" ]
 ---> Running in 8f13c6d3d9e7
Removing intermediate container 8f13c6d3d9e7
 ---> 1d56897841ec
Successfully built 1d56897841ec
Successfully tagged uptimer:latest

$ docker run --detach --rm --name uptimer_BLUE --network web-gateway uptimer
96932d4ca97a25b1b42d1b5f0ede993b43f95fac3c064262c5c527e16c119e02

$ docker logs uptimer_BLUE
Uptimer v2.0 (loads in 5 sec.) started.

$ docker run --rm --network web-gateway alpine wget -qO- http://uptimer_BLUE:8080
<h2>Uptimer v2.0 is running for 23.9 seconds.</h2>

$ sed s/uptimer/uptimer_BLUE/ uptimer.conf | docker exec --interactive reverse-proxy sh -c 'cat > /etc/nginx/conf.d/default.conf'

$ docker exec reverse-proxy cat /etc/nginx/conf.d/default.conf
server {
    listen 80;
    location / {
        proxy_pass http://uptimer_BLUE:8080;
    }
}

$ docker exec reverse-proxy nginx -s reload
2020/06/25 21:22:23 [notice] 68#68: signal process started

$ wget -qO- http://localhost
<h2>Uptimer v2.0 is running for 63.4 seconds.</h2>

$ docker rm -f uptimer
uptimer

$ wget -qO- http://localhost
<h2>Uptimer v2.0 is running for 84.8 seconds.</h2>

$ docker ps
CONTAINER ID        IMAGE               COMMAND                  CREATED              STATUS              PORTS                NAMES
96932d4ca97a        uptimer             "python -u ./app.py"     About a minute ago   Up About a minute   8080/tcp             uptimer_BLUE
80695a822c19        nginx:alpine        "/docker-entrypoint.ā€¦"   8 minutes ago        Up 8 minutes        0.0.0.0:80->80/tcp   reverse-proxy

Å ajā posmā attēls tiek veidots tieÅ”i uz servera, kas prasa, lai lietojumprogrammu avoti bÅ«tu tur, kā arÄ« noslogo serveri ar nevajadzÄ«gu darbu. Nākamais solis ir attēla komplekta pieŔķirÅ”ana atseviŔķai maŔīnai (piemēram, CI sistēmai) un pēc tam pārsÅ«tÄ«Å”ana uz serveri.

Attēlu pārsÅ«tÄ«Å”ana

Diemžēl nav jēgas pārsÅ«tÄ«t attēlus no localhost uz localhost, tāpēc Å”o sadaļu var izpētÄ«t tikai tad, ja jums ir divi saimniekdatori ar Docker. Vismaz tas izskatās apmēram Ŕādi:

$ ssh production-server docker image ls
REPOSITORY          TAG                 IMAGE ID            CREATED             SIZE

$ docker image save uptimer | ssh production-server 'docker image load'
Loaded image: uptimer:latest

$ ssh production-server docker image ls
REPOSITORY          TAG                 IMAGE ID            CREATED             SIZE
uptimer             latest              1d56897841ec        5 minutes ago       78.9MB

Komanda docker save saglabā attēla datus .tar arhÄ«vā, kas nozÄ«mē, ka tie sver aptuveni 1.5 reizes vairāk nekā tie sver saspiestā formā. Tāpēc sakratÄ«sim to laika un satiksmes taupÄ«Å”anas vārdā:

$ docker image save uptimer | gzip | ssh production-server 'zcat | docker image load'
Loaded image: uptimer:latest

Varat arī pārraudzīt lejupielādes procesu (lai gan tam nepiecieŔama treŔās puses utilīta):

$ docker image save uptimer | gzip | pv | ssh production-server 'zcat | docker image load'
25,7MiB 0:01:01 [ 425KiB/s] [                   <=>    ]
Loaded image: uptimer:latest

Padoms. Ja jums ir nepiecieÅ”ami vairāki parametri, lai izveidotu savienojumu ar serveri, izmantojot SSH, iespējams, neizmantojat failu ~/.ssh/config.

Attēla pārsÅ«tÄ«Å”ana, izmantojot docker image save/load - Å Ä« ir minimālistiskākā metode, bet ne vienÄ«gā. Ir arÄ« citi:

  1. Konteineru reģistrs (nozares standarts).
  2. Izveidojiet savienojumu ar docker dēmonu serveri no cita resursdatora:
    1. vides mainīgais DOCKER_HOST.
    2. Komandrindas opcija -H vai --host rīks docker-compose.
    3. docker context

Otrā metode (ar trim tās ievieÅ”anas iespējām) ir labi aprakstÄ«ta rakstā Kā izvietot attālos Docker saimniekdatoros, izmantojot docker-compose.

deploy.sh

Tagad apkoposim visu, ko veicām manuāli, vienā skriptā. Sāksim ar augstākā līmeņa funkciju un pēc tam apskatīsim pārējās tajā izmantotās funkcijas.

Interesantas tehnikas

  • ${parameter?err_msg} - viena no bash burvestÄ«bām (aka parametru aizstāŔana). Ja parameter nav norādÄ«ts, izvade err_msg un izejiet ar kodu 1.
  • docker --log-driver journald ā€” pēc noklusējuma docker reÄ£istrÄ“Å”anas draiveris ir teksta fails bez rotācijas. Izmantojot Å”o pieeju, žurnāli ātri aizpilda visu disku, tāpēc ražoÅ”anas videi ir jāmaina draiveris uz viedāku.

IzvietoŔanas skripts

deploy() {
    local usage_msg="Usage: ${FUNCNAME[0]} image_name"
    local image_name=${1?$usage_msg}

    ensure-reverse-proxy || return 2
    if get-active-slot $image_name
    then
        local OLD=${image_name}_BLUE
        local new_slot=GREEN
    else
        local OLD=${image_name}_GREEN
        local new_slot=BLUE
    fi
    local NEW=${image_name}_${new_slot}
    echo "Deploying '$NEW' in place of '$OLD'..."
    docker run 
        --detach 
        --restart always 
        --log-driver journald 
        --name $NEW 
        --network web-gateway 
        $image_name || return 3
    echo "Container started. Checking health..."
    for i in {1..20}
    do
        sleep 1
        if get-service-status $image_name $new_slot
        then
            echo "New '$NEW' service seems OK. Switching heads..."
            sleep 2  # Ensure service is ready
            set-active-slot $image_name $new_slot || return 4
            echo "'$NEW' service is live!"
            sleep 2  # Ensure all requests were processed
            echo "Killing '$OLD'..."
            docker rm -f $OLD
            docker image prune -f
            echo "Deployment successful!"
            return 0
        fi
        echo "New '$NEW' service is not ready yet. Waiting ($i)..."
    done
    echo "New '$NEW' service did not raise, killing it. Failed to deploy T_T"
    docker rm -f $NEW
    return 5
}

Izmantotās funkcijas:

  • ensure-reverse-proxy ā€” Pārliecinās, vai darbojas reversais starpniekserveris (noderÄ«gs pirmajai izvietoÅ”anai)
  • get-active-slot service_name ā€” Nosaka, kurÅ” slots paÅ”laik ir aktÄ«vs konkrētajam pakalpojumam (BLUE vai GREEN)
  • get-service-status service_name deployment_slot ā€” Nosaka, vai pakalpojums ir gatavs apstrādāt ienākoÅ”os pieprasÄ«jumus
  • set-active-slot service_name deployment_slot ā€” Maina nginx konfigurāciju apgrieztā starpniekservera konteinerā

Lai:

ensure-reverse-proxy() {
    is-container-up reverse-proxy && return 0
    echo "Deploying reverse-proxy..."
    docker network create web-gateway
    docker run 
        --detach 
        --restart always 
        --log-driver journald 
        --name reverse-proxy 
        --network web-gateway 
        --publish 80:80 
        nginx:alpine || return 1
    docker exec --interactive reverse-proxy sh -c "> /etc/nginx/conf.d/default.conf"
    docker exec reverse-proxy nginx -s reload
}

is-container-up() {
    local container=${1?"Usage: ${FUNCNAME[0]} container_name"}

    [ -n "$(docker ps -f name=${container} -q)" ]
    return $?
}

get-active-slot() {
    local service=${1?"Usage: ${FUNCNAME[0]} service_name"}

    if is-container-up ${service}_BLUE && is-container-up ${service}_GREEN; then
        echo "Collision detected! Stopping ${service}_GREEN..."
        docker rm -f ${service}_GREEN
        return 0  # BLUE
    fi
    if is-container-up ${service}_BLUE && ! is-container-up ${service}_GREEN; then
        return 0  # BLUE
    fi
    if ! is-container-up ${service}_BLUE; then
        return 1  # GREEN
    fi
}

get-service-status() {
    local usage_msg="Usage: ${FUNCNAME[0]} service_name deployment_slot"
    local service=${1?usage_msg}
    local slot=${2?$usage_msg}

    case $service in
        # Add specific healthcheck paths for your services here
        *) local health_check_port_path=":8080/" ;;
    esac
    local health_check_address="http://${service}_${slot}${health_check_port_path}"
    echo "Requesting '$health_check_address' within the 'web-gateway' docker network:"
    docker run --rm --network web-gateway alpine 
        wget --timeout=1 --quiet --server-response $health_check_address
    return $?
}

set-active-slot() {
    local usage_msg="Usage: ${FUNCNAME[0]} service_name deployment_slot"
    local service=${1?$usage_msg}
    local slot=${2?$usage_msg}
    [ "$slot" == BLUE ] || [ "$slot" == GREEN ] || return 1

    get-nginx-config $service $slot | docker exec --interactive reverse-proxy sh -c "cat > /etc/nginx/conf.d/$service.conf"
    docker exec reverse-proxy nginx -t || return 2
    docker exec reverse-proxy nginx -s reload
}

Funkcija get-active-slot prasa nelielu skaidrojumu:

Kāpēc tas atgriež skaitli, nevis izvada virkni?

Jebkurā gadÄ«jumā izsaukÅ”anas funkcijā mēs pārbaudām tās darba rezultātu, un izejas koda pārbaude, izmantojot bash, ir daudz vienkārŔāka nekā virknes pārbaude. Turklāt virknes iegÅ«Å”ana no tā ir ļoti vienkārÅ”a:
get-active-slot service && echo BLUE || echo GREEN.

Vai tieŔām pietiek ar trim nosacījumiem, lai atŔķirtu visas valstis?

Zili-zaļa izvietoŔana ar minimālajām algām

Pietiks pat ar diviem, pēdējais Å”eit tikai pilnÄ«bai, lai nerakstÄ«tu else.

Nedefinēta paliek tikai funkcija, kas atgriež nginx konfigurācijas: get-nginx-config service_name deployment_slot. Pēc analoÄ£ijas ar veselÄ«bas pārbaudi Å”eit varat iestatÄ«t jebkuru konfigurāciju jebkuram pakalpojumam. No interesantajām lietām - tikai cat <<- EOF, kas ļauj noņemt visas cilnes sākumā. Tiesa, laba formatējuma cena ir jauktas cilnes ar atstarpēm, kas mÅ«sdienās tiek uzskatÄ«tas par ļoti sliktu formu. Bet bash piespiež cilnes, un bÅ«tu arÄ« jauki, ja nginx konfigurācijā bÅ«tu normāls formatējums. ÄŖsāk sakot, ciļņu sajaukÅ”ana ar atstarpēm Å”eit patieŔām Ŕķiet labākais risinājums no sliktākajiem. Tomēr jÅ«s to neredzēsit tālāk esoÅ”ajā fragmentā, jo Habrs ā€œto dara labiā€, mainot visas cilnes uz 4 atstarpēm un padarot EOF nederÄ«gus. Un Å”eit tas ir pamanāms.

Lai neceltos divreiz, es jums tÅ«lÄ«t pastāstÄ«Å”u par cat << 'EOF', kas tiks sastapts vēlāk. Ja raksti vienkārÅ”i cat << EOF, tad heredoc iekÅ”pusē virkne tiek interpolēta (mainÄ«gie tiek paplaÅ”ināti ($foo), komandu izsaukumi ($(bar)) utt.), un, ja dokumenta beigas ievietojat atseviŔķās pēdiņās, interpolācija tiek atspējota un simbols $ tiek parādÄ«ts tāds, kāds ir. Kas jums nepiecieÅ”ams, lai ievietotu skriptu citā skriptā.

get-nginx-config() {
    local usage_msg="Usage: ${FUNCNAME[0]} service_name deployment_slot"
    local service=${1?$usage_msg}
    local slot=${2?$usage_msg}
    [ "$slot" == BLUE ] || [ "$slot" == GREEN ] || return 1

    local container_name=${service}_${slot}
    case $service in
        # Add specific nginx configs for your services here
        *) nginx-config-simple-service $container_name:8080 ;;
    esac
}

nginx-config-simple-service() {
    local usage_msg="Usage: ${FUNCNAME[0]} proxy_pass"
    local proxy_pass=${1?$usage_msg}

cat << EOF
server {
    listen 80;
    location / {
        proxy_pass http://$proxy_pass;
    }
}
EOF
}

Šis ir viss skripts. Līdz ar to būtība ar Ŕo skriptu lejupielādei, izmantojot wget vai curl.

Parametru skriptu izpilde attālajā serverī

Ir pienācis laiks pieklauvēt pie mērķa servera. Šoreiz localhost diezgan piemērots:

$ ssh-copy-id localhost
/usr/bin/ssh-copy-id: INFO: attempting to log in with the new key(s), to filter out any that are already installed
/usr/bin/ssh-copy-id: INFO: 1 key(s) remain to be installed -- if you are prompted now it is to install the new keys
himura@localhost's password: 

Number of key(s) added: 1

Now try logging into the machine, with:   "ssh 'localhost'"
and check to make sure that only the key(s) you wanted were added.

Mēs esam uzrakstÄ«juÅ”i izvietoÅ”anas skriptu, kas mērÄ·a serverÄ« lejupielādē iepriekÅ” izveidotu attēlu un nemanāmi aizstāj pakalpojuma konteineru, taču kā mēs varam to izpildÄ«t attālajā datorā? Skriptam ir argumenti, jo tas ir universāls un var izvietot vairākus pakalpojumus vienlaikus vienā reversajā starpniekserverÄ« (varat izmantot nginx konfigurācijas, lai noteiktu, kurÅ” url bÅ«s kurÅ” pakalpojums). Skriptu nevar saglabāt serverÄ«, jo Å”ajā gadÄ«jumā mēs nevarēsim to automātiski atjaunināt (lai labotu kļūdas un pievienotu jaunus pakalpojumus), un kopumā stāvoklis = ļaunums.

1. risinājums: joprojām saglabājiet skriptu serverÄ«, bet kopējiet to katru reizi scp. Pēc tam izveidojiet savienojumu, izmantojot ssh un izpildiet skriptu ar nepiecieÅ”amajiem argumentiem.

MÄ«nusi:

  • Divas darbÄ«bas vienas vietā
  • Iespējams, ka nav vietas, kur jÅ«s kopējat, vai tai var nebÅ«t piekļuves, vai arÄ« skripts var tikt izpildÄ«ts aizstāŔanas laikā.
  • Vēlams aiz sevis sakopt (izdzēst skriptu).
  • Jau trÄ«s darbÄ«bas.

2. risinājums:

  • Saglabājiet skriptā tikai funkciju definÄ«cijas un nepalaidiet neko
  • Ar sed beigās pievienojiet funkcijas izsaukumu
  • NosÅ«tiet to visu tieÅ”i uz shh, izmantojot cauruli (|)

Plusi:

  • PatieŔām bezvalstnieks
  • Nav pamata entÄ«tiju
  • JÅ«tos forÅ”i

DarÄ«sim to bez Ansible. Jā, viss jau ir izdomāts. Jā, velosipēds. Paskatieties, cik vienkārÅ”s, elegants un minimālistisks ir velosipēds:

$ cat << 'EOF' > deploy.sh
#!/bin/bash

usage_msg="Usage: $0 ssh_address local_image_tag"
ssh_address=${1?$usage_msg}
image_name=${2?$usage_msg}

echo "Connecting to '$ssh_address' via ssh to seamlessly deploy '$image_name'..."
( sed "$a deploy $image_name" | ssh -T $ssh_address ) << 'END_OF_SCRIPT'
deploy() {
    echo "Yay! The '${FUNCNAME[0]}' function is executing on '$(hostname)' with argument '$1'"
}
END_OF_SCRIPT
EOF

$ chmod +x deploy.sh

$ ./deploy.sh localhost magic-porridge-pot
Connecting to localhost...
Yay! The 'deploy' function is executing on 'hut' with argument 'magic-porridge-pot'

Tomēr mēs nevaram būt pārliecināti, ka attālajam saimniekdatoram ir pietiekams bash, tāpēc sākumā pievienosim nelielu pārbaudi (tas ir nevis shellbang):

if [ "$SHELL" != "/bin/bash" ]
then
    echo "The '$SHELL' shell is not supported by 'deploy.sh'. Set a '/bin/bash' shell for '$USER@$HOSTNAME'."
    exit 1
fi

Un tagad tas ir Ä«sts:

$ docker exec reverse-proxy rm /etc/nginx/conf.d/default.conf

$ wget -qO deploy.sh https://git.io/JUURc

$ chmod +x deploy.sh

$ ./deploy.sh localhost uptimer
Sending gzipped image 'uptimer' to 'localhost' via ssh...
Loaded image: uptimer:latest
Connecting to 'localhost' via ssh to seamlessly deploy 'uptimer'...
Deploying 'uptimer_GREEN' in place of 'uptimer_BLUE'...
06f5bc70e9c4f930e7b1f826ae2ca2f536023cc01e82c2b97b2c84d68048b18a
Container started. Checking health...
Requesting 'http://uptimer_GREEN:8080/' within the 'web-gateway' docker network:
  HTTP/1.0 503 Service Unavailable
wget: server returned error: HTTP/1.0 503 Service Unavailable
New 'uptimer_GREEN' service is not ready yet. Waiting (1)...
Requesting 'http://uptimer_GREEN:8080/' within the 'web-gateway' docker network:
  HTTP/1.0 503 Service Unavailable
wget: server returned error: HTTP/1.0 503 Service Unavailable
New 'uptimer_GREEN' service is not ready yet. Waiting (2)...
Requesting 'http://uptimer_GREEN:8080/' within the 'web-gateway' docker network:
  HTTP/1.0 200 OK
  Server: BaseHTTP/0.6 Python/3.8.3
  Date: Sat, 22 Aug 2020 20:15:50 GMT
  Content-Type: text/html

New 'uptimer_GREEN' service seems OK. Switching heads...
nginx: the configuration file /etc/nginx/nginx.conf syntax is ok
nginx: configuration file /etc/nginx/nginx.conf test is successful
2020/08/22 20:15:54 [notice] 97#97: signal process started
The 'uptimer_GREEN' service is live!
Killing 'uptimer_BLUE'...
uptimer_BLUE
Total reclaimed space: 0B
Deployment successful!

Tagad jÅ«s varat atvērt http://localhost/ pārlÅ«kprogrammā vēlreiz palaidiet izvietoÅ”anu un pārliecinieties, ka tā darbojas nevainojami, izkārtojuma laikā atjauninot lapu atbilstoÅ”i kompaktdiskam.

Neaizmirsti sakopt pēc darba :3

$ docker rm -f uptimer_GREEN reverse-proxy 
uptimer_GREEN
reverse-proxy

$ docker network rm web-gateway 
web-gateway

$ cd ..

$ rm -r blue-green-deployment

Avots: www.habr.com