Docker a všetci, všetci, všetci

TL;DR: Prehľadový článok – návod na porovnanie prostredí pre spustenie aplikácií v kontajneroch. Zvážia sa možnosti Dockera a iných podobných systémov.

Docker a všetci, všetci, všetci

Trochu histórie o tom, odkiaľ to všetko prišlo

Príbeh

Prvým známym spôsobom izolácie aplikácie je chroot. Systémové volanie s rovnakým názvom poskytuje zmenu koreňového adresára - teda poskytuje prístup k programu, ktorý ho volal, prístup iba k súborom v tomto adresári. Ak však program dostane vo vnútri práva superužívateľa, môže potenciálne „uniknúť“ z chrootu a získať prístup k hlavnému operačnému systému. Okrem zmeny koreňového adresára nie sú obmedzené ani ďalšie zdroje (RAM, procesor), ani prístup do siete.

Ďalším spôsobom je spustenie plnohodnotného operačného systému vo vnútri kontajnera pomocou mechanizmov jadra operačného systému. Táto metóda sa v rôznych operačných systémoch nazýva odlišne, ale podstata je rovnaká – spustenie niekoľkých nezávislých operačných systémov, z ktorých každý beží na rovnakom jadre, na ktorom beží hlavný operačný systém. To zahŕňa väzenia FreeBSD, Solaris Zones, OpenVZ a LXC pre Linux. Izolácia sa poskytuje nielen pre miesto na disku, ale aj pre iné zdroje, najmä každý kontajner môže mať obmedzenia na čas procesora, RAM, šírku pásma siete. V porovnaní s chrootom je opustenie kontajnera náročnejšie, keďže superužívateľ v kontajneri má prístup iba do vnútra kontajnera, avšak kvôli potrebe udržiavať operačný systém vnútri kontajnera aktuálny a používaniu starého jadra verzie (relevantné pre Linux, v menšej miere FreeBSD), existuje nenulová pravdepodobnosť „prelomenia“ systému izolácie jadra a získania prístupu k hlavnému operačnému systému.

Namiesto spustenia plnohodnotného operačného systému v kontajneri (s inicializačným systémom, správcom balíkov atď.) je možné aplikácie spúšťať okamžite, hlavnou vecou je poskytnúť aplikáciám túto príležitosť (prítomnosť potrebných knižníc a ostatné súbory). Táto myšlienka slúžila ako základ pre virtualizáciu kontajnerových aplikácií, ktorých najvýznamnejším a najznámejším predstaviteľom je Docker. V porovnaní s predchádzajúcimi systémami viedli flexibilnejšie izolačné mechanizmy spolu so vstavanou podporou virtuálnych sietí medzi kontajnermi a stavom aplikácie vo vnútri kontajnera k možnosti vybudovať jediné holistické prostredie z veľkého počtu fyzických serverov na spustenie kontajnerov – bez potreba manuálneho riadenia zdrojov.

prístavný robotník

Docker je najznámejší softvér na kontajnerizáciu aplikácií. Je napísaný v jazyku Go a využíva bežné schopnosti linuxového jadra – cgroups, menné priestory, schopnosti atď., ako aj súborové systémy Aufs a iné podobné na úsporu miesta na disku.

Docker a všetci, všetci, všetci
Zdroj: wikimedia

architektúra

Pred verziou 1.11 Docker fungoval ako jediná služba, ktorá vykonávala všetky operácie s kontajnermi: sťahovanie obrázkov pre kontajnery, spúšťanie kontajnerov, spracovanie požiadaviek API. Od verzie 1.11 je Docker rozdelený na niekoľko častí, ktoré na seba vzájomne pôsobia: kontajnerový, ktorý zvláda celý životný cyklus kontajnerov (pridelenie miesta na disku, sťahovanie obrázkov, vytváranie sietí, spúšťanie, inštalácia a monitorovanie stavu kontajnerov) a runC , kontajnerové runtime, založené na použití cgroups a ďalších funkcií linuxového jadra. Samotná služba docker zostáva, ale teraz slúži len na spracovanie žiadostí API vysielaných do kontajnera.

Docker a všetci, všetci, všetci

Inštalácia a konfigurácia

Môj obľúbený spôsob inštalácie dockeru je docker-machine, ktorý okrem priamej inštalácie a konfigurácie dockeru na vzdialených serveroch (vrátane rôznych cloudov) umožňuje pracovať so súborovými systémami vzdialených serverov a tiež dokáže spúšťať rôzne príkazy.

Od roku 2018 sa však projekt takmer nerozvíjal, a tak ho nainštalujeme bežným spôsobom pre väčšinu linuxových distribúcií – pridaním úložiska a inštaláciou potrebných balíkov.

Táto metóda sa používa aj pri automatizovanej inštalácii, napríklad pomocou Ansible alebo iných podobných systémov, ale v tomto článku sa ňou nebudem zaoberať.

Inštalácia bude vykonaná na Centos 7, ako server použijem virtuálny stroj, na inštaláciu stačí spustiť príkazy nižšie:

# yum install -y yum-utils
# yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo
# yum install docker-ce docker-ce-cli containerd.io

Po inštalácii musíte spustiť službu, dať ju do automatického načítania:

# systemctl enable docker
# systemctl start docker
# firewall-cmd --zone=public --add-port=2377/tcp --permanent

Dodatočne si môžete vytvoriť skupinu dockerov, ktorej používatelia budú môcť pracovať s dockerom bez sudo, nastaviť logovanie, povoliť prístup k API zvonku, nezabudnúť doladiť firewall (všetko, čo nie je povolené, je zakázané v príkladoch vyššie a nižšie - toto som pre jednoduchosť a vizualizáciu vynechal), ale nebudem sa tu podrobnejšie rozpisovať.

Ďalšie funkcie

Okrem vyššie uvedeného dokovacieho stroja existuje aj docker register, nástroj na ukladanie obrázkov pre kontajnery, ako aj docker compose - nástroj na automatizáciu nasadzovania aplikácií v kontajneroch, súbory YAML sa používajú na vytváranie a konfiguráciu kontajnerov a iné súvisiace veci (napríklad siete, trvalé súborové systémy na ukladanie údajov).

Môže sa tiež použiť na organizáciu potrubí pre CICD. Ďalšou zaujímavou funkciou je práca v klastrovom režime, takzvaný swarm režim (pred verziou 1.12 bol známy ako docker swarm), ktorý umožňuje zostaviť jednu infraštruktúru z niekoľkých serverov na spustenie kontajnerov. Na vrchole všetkých serverov je podpora virtuálnej siete, je tu vstavaný nástroj na vyvažovanie záťaže, ako aj podpora tajomstiev pre kontajnery.

Súbory YAML z docker compose možno použiť pre takéto klastre s malými úpravami, čím sa plne automatizuje údržba malých a stredných klastrov na rôzne účely. Pre veľké klastre je vhodnejší Kubernetes, pretože náklady na údržbu v režime roj môžu prevážiť nad nákladmi Kubernetes. Okrem runC, ako exekučného prostredia pre kontajnery, môžete nainštalovať napr Kata kontajnery

Práca s Dockerom

Po inštalácii a konfigurácii sa pokúsime postaviť klaster, do ktorého nasadíme GitLab a Docker Registry pre vývojársky tím. Ako servery budem používať tri virtuálne stroje, na ktoré dodatočne nasadím distribuovaný FS GlusterFS, použijem ho ako úložisko docker volumes, napríklad na spustenie fail-safe verzie docker registra. Kľúčové komponenty na spustenie: Docker Registry, Postgresql, Redis, GitLab s podporou pre GitLab Runner nad Swarmom. Postgresql sa spustí s klastrovaním Stolon, takže na ukladanie údajov Postgresql nemusíte používať GlusterFS. Zvyšok kritických údajov bude uložený na GlusterFS.

Ak chcete nasadiť GlusterFS na všetky servery (nazývajú sa node1, node2, node3), musíte nainštalovať balíčky, povoliť bránu firewall, vytvoriť potrebné adresáre:

# yum -y install centos-release-gluster7
# yum -y install glusterfs-server
# systemctl enable glusterd
# systemctl start glusterd
# firewall-cmd --add-service=glusterfs --permanent
# firewall-cmd --reload
# mkdir -p /srv/gluster
# mkdir -p /srv/docker
# echo "$(hostname):/docker /srv/docker glusterfs defaults,_netdev 0 0" >> /etc/fstab

Po inštalácii musí práca na konfigurácii GlusterFS pokračovať z jedného uzla, napríklad z node1:

# gluster peer probe node2
# gluster peer probe node3
# gluster volume create docker replica 3 node1:/srv/gluster node2:/srv/gluster node3:/srv/gluster force
# gluster volume start docker

Potom musíte pripojiť výsledný zväzok (príkaz musí byť spustený na všetkých serveroch):

# mount /srv/docker

Režim Swarm je nakonfigurovaný na jednom zo serverov, ktorým bude Leader, ostatné sa budú musieť pripojiť ku klastru, takže výsledok spustenia príkazu na prvom serveri bude potrebné skopírovať a spustiť na ostatných serveroch.

Počiatočné nastavenie klastra spustím príkaz na node1:

# docker swarm init
Swarm initialized: current node (a5jpfrh5uvo7svzz1ajduokyq) is now a manager.

To add a worker to this swarm, run the following command:

    docker swarm join --token SWMTKN-1-0c5mf7mvzc7o7vjk0wngno2dy70xs95tovfxbv4tqt9280toku-863hyosdlzvd76trfptd4xnzd xx.xx.xx.xx:2377

To add a manager to this swarm, run 'docker swarm join-token manager' and follow the instructions.
# docker swarm join-token manager

Skopírujte výsledok druhého príkazu, vykonajte na node2 a node3:

# docker swarm join --token SWMTKN-x-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx-xxxxxxxxx xx.xx.xx.xx:2377
This node joined a swarm as a manager.

Tým sa dokončí predbežná konfigurácia serverov, začnime konfigurovať služby, príkazy, ktoré sa majú vykonať, sa budú spúšťať z node1, pokiaľ nie je uvedené inak.

Najprv vytvorte siete pre kontajnery:

# docker network create --driver=overlay etcd
# docker network create --driver=overlay pgsql
# docker network create --driver=overlay redis
# docker network create --driver=overlay traefik
# docker network create --driver=overlay gitlab

Potom označíme servery, je potrebné naviazať niektoré služby na servery:

# docker node update --label-add nodename=node1 node1
# docker node update --label-add nodename=node2 node2
# docker node update --label-add nodename=node3 node3

Ďalej vytvoríme adresáre na ukladanie údajov etcd, KV úložisko, ktoré potrebujú Traefik a Stolon. Podobne ako v prípade Postgresql to budú kontajnery viazané na servery, takže tento príkaz vykonáme na všetkých serveroch:

# mkdir -p /srv/etcd

Ďalej vytvorte súbor na konfiguráciu etcd a použite ho:

00etcd.yml

version: '3.7'

services:
  etcd1:
    image: quay.io/coreos/etcd:latest
    hostname: etcd1
    command:
      - etcd
      - --name=etcd1
      - --data-dir=/data.etcd
      - --advertise-client-urls=http://etcd1:2379
      - --listen-client-urls=http://0.0.0.0:2379
      - --initial-advertise-peer-urls=http://etcd1:2380
      - --listen-peer-urls=http://0.0.0.0:2380
      - --initial-cluster=etcd1=http://etcd1:2380,etcd2=http://etcd2:2380,etcd3=http://etcd3:2380
      - --initial-cluster-state=new
      - --initial-cluster-token=etcd-cluster
    networks:
      - etcd
    volumes:
      - etcd1vol:/data.etcd
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node1]
  etcd2:
    image: quay.io/coreos/etcd:latest
    hostname: etcd2
    command:
      - etcd
      - --name=etcd2
      - --data-dir=/data.etcd
      - --advertise-client-urls=http://etcd2:2379
      - --listen-client-urls=http://0.0.0.0:2379
      - --initial-advertise-peer-urls=http://etcd2:2380
      - --listen-peer-urls=http://0.0.0.0:2380
      - --initial-cluster=etcd1=http://etcd1:2380,etcd2=http://etcd2:2380,etcd3=http://etcd3:2380
      - --initial-cluster-state=new
      - --initial-cluster-token=etcd-cluster
    networks:
      - etcd
    volumes:
      - etcd2vol:/data.etcd
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node2]
  etcd3:
    image: quay.io/coreos/etcd:latest
    hostname: etcd3
    command:
      - etcd
      - --name=etcd3
      - --data-dir=/data.etcd
      - --advertise-client-urls=http://etcd3:2379
      - --listen-client-urls=http://0.0.0.0:2379
      - --initial-advertise-peer-urls=http://etcd3:2380
      - --listen-peer-urls=http://0.0.0.0:2380
      - --initial-cluster=etcd1=http://etcd1:2380,etcd2=http://etcd2:2380,etcd3=http://etcd3:2380
      - --initial-cluster-state=new
      - --initial-cluster-token=etcd-cluster
    networks:
      - etcd
    volumes:
      - etcd3vol:/data.etcd
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node3]

volumes:
  etcd1vol:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/etcd"
  etcd2vol:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/etcd"
  etcd3vol:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/etcd"

networks:
  etcd:
    external: true

# docker stack deploy --compose-file 00etcd.yml etcd

Po chvíli skontrolujeme, či sa klaster etcd zvýšil:

# docker exec $(docker ps | awk '/etcd/ {print $1}')  etcdctl member list
ade526d28b1f92f7: name=etcd1 peerURLs=http://etcd1:2380 clientURLs=http://etcd1:2379 isLeader=false
bd388e7810915853: name=etcd3 peerURLs=http://etcd3:2380 clientURLs=http://etcd3:2379 isLeader=false
d282ac2ce600c1ce: name=etcd2 peerURLs=http://etcd2:2380 clientURLs=http://etcd2:2379 isLeader=true
# docker exec $(docker ps | awk '/etcd/ {print $1}')  etcdctl cluster-health
member ade526d28b1f92f7 is healthy: got healthy result from http://etcd1:2379
member bd388e7810915853 is healthy: got healthy result from http://etcd3:2379
member d282ac2ce600c1ce is healthy: got healthy result from http://etcd2:2379
cluster is healthy

Vytvorte adresáre pre Postgresql, vykonajte príkaz na všetkých serveroch:

# mkdir -p /srv/pgsql

Ďalej vytvorte súbor na konfiguráciu Postgresql:

01pgsql.yml

version: '3.7'

services:
  pgsentinel:
    image: sorintlab/stolon:master-pg10
    command:
      - gosu
      - stolon
      - stolon-sentinel
      - --cluster-name=stolon-cluster
      - --store-backend=etcdv3
      - --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
      - --log-level=debug
    networks:
      - etcd
      - pgsql
    deploy:
      replicas: 3
      update_config:
        parallelism: 1
        delay: 30s
        order: stop-first
        failure_action: pause
  pgkeeper1:
    image: sorintlab/stolon:master-pg10
    hostname: pgkeeper1
    command:
      - gosu
      - stolon
      - stolon-keeper
      - --pg-listen-address=pgkeeper1
      - --pg-repl-username=replica
      - --uid=pgkeeper1
      - --pg-su-username=postgres
      - --pg-su-passwordfile=/run/secrets/pgsql
      - --pg-repl-passwordfile=/run/secrets/pgsql_repl
      - --data-dir=/var/lib/postgresql/data
      - --cluster-name=stolon-cluster
      - --store-backend=etcdv3
      - --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
    networks:
      - etcd
      - pgsql
    environment:
      - PGDATA=/var/lib/postgresql/data
    volumes:
      - pgkeeper1:/var/lib/postgresql/data
    secrets:
      - pgsql
      - pgsql_repl
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node1]
  pgkeeper2:
    image: sorintlab/stolon:master-pg10
    hostname: pgkeeper2
    command:
      - gosu
      - stolon 
      - stolon-keeper
      - --pg-listen-address=pgkeeper2
      - --pg-repl-username=replica
      - --uid=pgkeeper2
      - --pg-su-username=postgres
      - --pg-su-passwordfile=/run/secrets/pgsql
      - --pg-repl-passwordfile=/run/secrets/pgsql_repl
      - --data-dir=/var/lib/postgresql/data
      - --cluster-name=stolon-cluster
      - --store-backend=etcdv3
      - --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
    networks:
      - etcd
      - pgsql
    environment:
      - PGDATA=/var/lib/postgresql/data
    volumes:
      - pgkeeper2:/var/lib/postgresql/data
    secrets:
      - pgsql
      - pgsql_repl
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node2]
  pgkeeper3:
    image: sorintlab/stolon:master-pg10
    hostname: pgkeeper3
    command:
      - gosu
      - stolon 
      - stolon-keeper
      - --pg-listen-address=pgkeeper3
      - --pg-repl-username=replica
      - --uid=pgkeeper3
      - --pg-su-username=postgres
      - --pg-su-passwordfile=/run/secrets/pgsql
      - --pg-repl-passwordfile=/run/secrets/pgsql_repl
      - --data-dir=/var/lib/postgresql/data
      - --cluster-name=stolon-cluster
      - --store-backend=etcdv3
      - --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
    networks:
      - etcd
      - pgsql
    environment:
      - PGDATA=/var/lib/postgresql/data
    volumes:
      - pgkeeper3:/var/lib/postgresql/data
    secrets:
      - pgsql
      - pgsql_repl
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node3]
  postgresql:
    image: sorintlab/stolon:master-pg10
    command: gosu stolon stolon-proxy --listen-address 0.0.0.0 --cluster-name stolon-cluster --store-backend=etcdv3 --store-endpoints http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
    networks:
      - etcd
      - pgsql
    deploy:
      replicas: 3
      update_config:
        parallelism: 1
        delay: 30s
        order: stop-first
        failure_action: rollback

volumes:
  pgkeeper1:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/pgsql"
  pgkeeper2:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/pgsql"
  pgkeeper3:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/pgsql"

secrets:
  pgsql:
    file: "/srv/docker/postgres"
  pgsql_repl:
    file: "/srv/docker/replica"

networks:
  etcd:
    external: true
  pgsql:
    external: true

Vygenerujeme tajomstvá, použijeme súbor:

# </dev/urandom tr -dc 234567890qwertyuopasdfghjkzxcvbnmQWERTYUPASDFGHKLZXCVBNM | head -c $(((RANDOM%3)+15)) > /srv/docker/replica
# </dev/urandom tr -dc 234567890qwertyuopasdfghjkzxcvbnmQWERTYUPASDFGHKLZXCVBNM | head -c $(((RANDOM%3)+15)) > /srv/docker/postgres
# docker stack deploy --compose-file 01pgsql.yml pgsql

O nejaký čas neskôr (pozrite sa na výstup príkazu dokovacia služba lsže všetky služby vzrástli) inicializujte klaster Postgresql:

# docker exec $(docker ps | awk '/pgkeeper/ {print $1}') stolonctl --cluster-name=stolon-cluster --store-backend=etcdv3 --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379 init

Kontrola pripravenosti klastra Postgresql:

# docker exec $(docker ps | awk '/pgkeeper/ {print $1}') stolonctl --cluster-name=stolon-cluster --store-backend=etcdv3 --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379 status
=== Active sentinels ===

ID      LEADER
26baa11d    false
74e98768    false
a8cb002b    true

=== Active proxies ===

ID
4d233826
9f562f3b
b0c79ff1

=== Keepers ===

UID     HEALTHY PG LISTENADDRESS    PG HEALTHY  PG WANTEDGENERATION PG CURRENTGENERATION
pgkeeper1   true    pgkeeper1:5432         true     2           2
pgkeeper2   true    pgkeeper2:5432          true            2                   2
pgkeeper3   true    pgkeeper3:5432          true            3                   3

=== Cluster Info ===

Master Keeper: pgkeeper3

===== Keepers/DB tree =====

pgkeeper3 (master)
├─pgkeeper2
└─pgkeeper1

Nakonfigurujeme traefik na otváranie prístupu ku kontajnerom zvonku:

03traefik.yml

version: '3.7'

services:
  traefik:
    image: traefik:latest
    command: >
      --log.level=INFO
      --providers.docker=true
      --entryPoints.web.address=:80
      --providers.providersThrottleDuration=2
      --providers.docker.watch=true
      --providers.docker.swarmMode=true
      --providers.docker.swarmModeRefreshSeconds=15s
      --providers.docker.exposedbydefault=false
      --accessLog.bufferingSize=0
      --api=true
      --api.dashboard=true
      --api.insecure=true
    networks:
      - traefik
    ports:
      - 80:80
    volumes:
      - /var/run/docker.sock:/var/run/docker.sock
    deploy:
      replicas: 3
      placement:
        constraints:
          - node.role == manager
        preferences:
          - spread: node.id
      labels:
        - traefik.enable=true
        - traefik.http.routers.traefik.rule=Host(`traefik.example.com`)
        - traefik.http.services.traefik.loadbalancer.server.port=8080
        - traefik.docker.network=traefik

networks:
  traefik:
    external: true

# docker stack deploy --compose-file 03traefik.yml traefik

Spustíme Redis Cluster, na tento účel vytvoríme úložný adresár na všetkých uzloch:

# mkdir -p /srv/redis

05redis.yml

version: '3.7'

services:
  redis-master:
    image: 'bitnami/redis:latest'
    networks:
      - redis
    ports:
      - '6379:6379'
    environment:
      - REDIS_REPLICATION_MODE=master
      - REDIS_PASSWORD=xxxxxxxxxxx
    deploy:
      mode: global
      restart_policy:
        condition: any
    volumes:
      - 'redis:/opt/bitnami/redis/etc/'

  redis-replica:
    image: 'bitnami/redis:latest'
    networks:
      - redis
    ports:
      - '6379'
    depends_on:
      - redis-master
    environment:
      - REDIS_REPLICATION_MODE=slave
      - REDIS_MASTER_HOST=redis-master
      - REDIS_MASTER_PORT_NUMBER=6379
      - REDIS_MASTER_PASSWORD=xxxxxxxxxxx
      - REDIS_PASSWORD=xxxxxxxxxxx
    deploy:
      mode: replicated
      replicas: 3
      update_config:
        parallelism: 1
        delay: 10s
      restart_policy:
        condition: any

  redis-sentinel:
    image: 'bitnami/redis:latest'
    networks:
      - redis
    ports:
      - '16379'
    depends_on:
      - redis-master
      - redis-replica
    entrypoint: |
      bash -c 'bash -s <<EOF
      "/bin/bash" -c "cat <<EOF > /opt/bitnami/redis/etc/sentinel.conf
      port 16379
      dir /tmp
      sentinel monitor master-node redis-master 6379 2
      sentinel down-after-milliseconds master-node 5000
      sentinel parallel-syncs master-node 1
      sentinel failover-timeout master-node 5000
      sentinel auth-pass master-node xxxxxxxxxxx
      sentinel announce-ip redis-sentinel
      sentinel announce-port 16379
      EOF"
      "/bin/bash" -c "redis-sentinel /opt/bitnami/redis/etc/sentinel.conf"
      EOF'
    deploy:
      mode: global
      restart_policy:
        condition: any

volumes:
  redis:
    driver: local
    driver_opts:
      type: 'none'
      o: 'bind'
      device: "/srv/redis"

networks:
  redis:
    external: true

# docker stack deploy --compose-file 05redis.yml redis

Pridať register Docker:

06registre.yml

version: '3.7'

services:
  registry:
    image: registry:2.6
    networks:
      - traefik
    volumes:
      - registry_data:/var/lib/registry
    deploy:
      replicas: 1
      placement:
        constraints: [node.role == manager]
      restart_policy:
        condition: on-failure
      labels:
        - traefik.enable=true
        - traefik.http.routers.registry.rule=Host(`registry.example.com`)
        - traefik.http.services.registry.loadbalancer.server.port=5000
        - traefik.docker.network=traefik

volumes:
  registry_data:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/docker/registry"

networks:
  traefik:
    external: true

# mkdir /srv/docker/registry
# docker stack deploy --compose-file 06registry.yml registry

A nakoniec - GitLab:

08gitlab-runner.yml

version: '3.7'

services:
  gitlab:
    image: gitlab/gitlab-ce:latest
    networks:
      - pgsql
      - redis
      - traefik
      - gitlab
    ports:
      - 22222:22
    environment:
      GITLAB_OMNIBUS_CONFIG: |
        postgresql['enable'] = false
        redis['enable'] = false
        gitlab_rails['registry_enabled'] = false
        gitlab_rails['db_username'] = "gitlab"
        gitlab_rails['db_password'] = "XXXXXXXXXXX"
        gitlab_rails['db_host'] = "postgresql"
        gitlab_rails['db_port'] = "5432"
        gitlab_rails['db_database'] = "gitlab"
        gitlab_rails['db_adapter'] = 'postgresql'
        gitlab_rails['db_encoding'] = 'utf8'
        gitlab_rails['redis_host'] = 'redis-master'
        gitlab_rails['redis_port'] = '6379'
        gitlab_rails['redis_password'] = 'xxxxxxxxxxx'
        gitlab_rails['smtp_enable'] = true
        gitlab_rails['smtp_address'] = "smtp.yandex.ru"
        gitlab_rails['smtp_port'] = 465
        gitlab_rails['smtp_user_name'] = "[email protected]"
        gitlab_rails['smtp_password'] = "xxxxxxxxx"
        gitlab_rails['smtp_domain'] = "example.com"
        gitlab_rails['gitlab_email_from'] = '[email protected]'
        gitlab_rails['smtp_authentication'] = "login"
        gitlab_rails['smtp_tls'] = true
        gitlab_rails['smtp_enable_starttls_auto'] = true
        gitlab_rails['smtp_openssl_verify_mode'] = 'peer'
        external_url 'http://gitlab.example.com/'
        gitlab_rails['gitlab_shell_ssh_port'] = 22222
    volumes:
      - gitlab_conf:/etc/gitlab
      - gitlab_logs:/var/log/gitlab
      - gitlab_data:/var/opt/gitlab
    deploy:
      mode: replicated
      replicas: 1
      placement:
        constraints:
        - node.role == manager
      labels:
        - traefik.enable=true
        - traefik.http.routers.gitlab.rule=Host(`gitlab.example.com`)
        - traefik.http.services.gitlab.loadbalancer.server.port=80
        - traefik.docker.network=traefik
  gitlab-runner:
    image: gitlab/gitlab-runner:latest
    networks:
      - gitlab
    volumes:
      - gitlab_runner_conf:/etc/gitlab
      - /var/run/docker.sock:/var/run/docker.sock
    deploy:
      mode: replicated
      replicas: 1
      placement:
        constraints:
        - node.role == manager

volumes:
  gitlab_conf:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/docker/gitlab/conf"
  gitlab_logs:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/docker/gitlab/logs"
  gitlab_data:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/docker/gitlab/data"
  gitlab_runner_conf:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/docker/gitlab/runner"

networks:
  pgsql:
    external: true
  redis:
    external: true
  traefik:
    external: true
  gitlab:
    external: true

# mkdir -p /srv/docker/gitlab/conf
# mkdir -p /srv/docker/gitlab/logs
# mkdir -p /srv/docker/gitlab/data
# mkdir -p /srv/docker/gitlab/runner
# docker stack deploy --compose-file 08gitlab-runner.yml gitlab

Konečný stav klastra a služieb:

# docker service ls
ID                  NAME                   MODE                REPLICAS            IMAGE                          PORTS
lef9n3m92buq        etcd_etcd1             replicated          1/1                 quay.io/coreos/etcd:latest
ij6uyyo792x5        etcd_etcd2             replicated          1/1                 quay.io/coreos/etcd:latest
fqttqpjgp6pp        etcd_etcd3             replicated          1/1                 quay.io/coreos/etcd:latest
hq5iyga28w33        gitlab_gitlab          replicated          1/1                 gitlab/gitlab-ce:latest        *:22222->22/tcp
dt7s6vs0q4qc        gitlab_gitlab-runner   replicated          1/1                 gitlab/gitlab-runner:latest
k7uoezno0h9n        pgsql_pgkeeper1        replicated          1/1                 sorintlab/stolon:master-pg10
cnrwul4r4nse        pgsql_pgkeeper2        replicated          1/1                 sorintlab/stolon:master-pg10
frflfnpty7tr        pgsql_pgkeeper3        replicated          1/1                 sorintlab/stolon:master-pg10
x7pqqchi52kq        pgsql_pgsentinel       replicated          3/3                 sorintlab/stolon:master-pg10
mwu2wl8fti4r        pgsql_postgresql       replicated          3/3                 sorintlab/stolon:master-pg10
9hkbe2vksbzb        redis_redis-master     global              3/3                 bitnami/redis:latest           *:6379->6379/tcp
l88zn8cla7dc        redis_redis-replica    replicated          3/3                 bitnami/redis:latest           *:30003->6379/tcp
1utp309xfmsy        redis_redis-sentinel   global              3/3                 bitnami/redis:latest           *:30002->16379/tcp
oteb824ylhyp        registry_registry      replicated          1/1                 registry:2.6
qovrah8nzzu8        traefik_traefik        replicated          3/3                 traefik:latest                 *:80->80/tcp, *:443->443/tcp

Čo sa dá ešte zlepšiť? Nezabudnite nakonfigurovať Traefik na prácu s kontajnermi https, pridajte šifrovanie tls pre Postgresql a Redis. Ale vo všeobecnosti ho už môžete dať vývojárom ako PoC. Poďme sa teraz pozrieť na alternatívy k Dockeru.

podmaní

Ďalší pomerne známy motor na spúšťanie kontajnerov zoskupených podľa podov (struky, skupiny kontajnerov rozmiestnené spoločne). Na rozdiel od Dockeru nevyžaduje na spustenie kontajnerov žiadnu službu, všetka práca prebieha cez knižnicu libpod. Tiež napísané v Go, potrebuje runtime kompatibilné s OCI na spustenie kontajnerov ako runC.

Docker a všetci, všetci, všetci

Práca s Podmanom sa vo všeobecnosti podobá práci s Dockerom, do tej miery, že to môžete urobiť takto (tvrdia to mnohí, ktorí to vyskúšali, vrátane autora tohto článku):

$ alias docker=podman

a môžete pokračovať v práci. Vo všeobecnosti je situácia s Podmanom veľmi zaujímavá, pretože ak rané verzie Kubernetes fungovali s Dockerom, tak približne od roku 2015, po štandardizácii kontajnerového sveta (OCI – Open Container Initiative) a rozdelení Dockera na kontajnery a runC, alternatíva k Docker sa vyvíja na spustenie v Kubernetes: CRI-O. Podman je v tomto smere alternatívou k Dockeru, postavenou na princípoch Kubernetes vrátane zoskupovania kontajnerov, no hlavným cieľom projektu je prevádzkovať kontajnery v štýle Docker bez dodatočných služieb. Zo zrejmých dôvodov neexistuje režim roja, pretože vývojári jasne hovoria, že ak potrebujete klaster, vezmite si Kubernetes.

Inštalácia

Ak chcete nainštalovať na Centos 7, stačí aktivovať úložisko Extras a potom nainštalovať všetko pomocou príkazu:

# yum -y install podman

Ďalšie funkcie

Podman dokáže generovať jednotky pre systemd, čím rieši problém spúšťania kontajnerov po reštarte servera. Okrem toho je systemd deklarované, že funguje správne ako pid 1 v kontajneri. Na vytváranie kontajnerov existuje samostatný nástroj buildah, existujú aj nástroje tretích strán - analógy docker-compose, ktoré tiež generujú konfiguračné súbory kompatibilné s Kubernetes, takže prechod z Podman na Kubernetes je čo najjednoduchší.

Práca s Podmanom

Keďže neexistuje režim swarm (v prípade potreby clusteru sa má prepnúť na Kubernetes), zostavíme ho do samostatných kontajnerov.

Nainštalujte podman-compose:

# yum -y install python3-pip
# pip3 install podman-compose

Výsledný konfiguračný súbor pre podman je mierne odlišný, pretože sme napríklad museli presunúť samostatnú sekciu zväzkov priamo do sekcie služieb.

gitlab-podman.yml

version: '3.7'

services:
  gitlab:
    image: gitlab/gitlab-ce:latest
    hostname: gitlab.example.com
    restart: unless-stopped
    environment:
      GITLAB_OMNIBUS_CONFIG: |
        gitlab_rails['gitlab_shell_ssh_port'] = 22222
    ports:
      - "80:80"
      - "22222:22"
    volumes:
      - /srv/podman/gitlab/conf:/etc/gitlab
      - /srv/podman/gitlab/data:/var/opt/gitlab
      - /srv/podman/gitlab/logs:/var/log/gitlab
    networks:
      - gitlab

  gitlab-runner:
    image: gitlab/gitlab-runner:alpine
    restart: unless-stopped
    depends_on:
      - gitlab
    volumes:
      - /srv/podman/gitlab/runner:/etc/gitlab-runner
      - /var/run/docker.sock:/var/run/docker.sock
    networks:
      - gitlab

networks:
  gitlab:

# podman-compose -f gitlab-runner.yml -d up

Vysledok prace:

# podman ps
CONTAINER ID  IMAGE                                  COMMAND               CREATED             STATUS                 PORTS                                      NAMES
da53da946c01  docker.io/gitlab/gitlab-runner:alpine  run --user=gitlab...  About a minute ago  Up About a minute ago  0.0.0.0:22222->22/tcp, 0.0.0.0:80->80/tcp  root_gitlab-runner_1
781c0103c94a  docker.io/gitlab/gitlab-ce:latest      /assets/wrapper       About a minute ago  Up About a minute ago  0.0.0.0:22222->22/tcp, 0.0.0.0:80->80/tcp  root_gitlab_1

Pozrime sa, čo to vygeneruje pre systemd a kubernetes, na to musíme zistiť názov alebo ID pod:

# podman pod ls
POD ID         NAME   STATUS    CREATED          # OF CONTAINERS   INFRA ID
71fc2b2a5c63   root   Running   11 minutes ago   3                 db40ab8bf84b

Kubernetes:

# podman generate kube 71fc2b2a5c63
# Generation of Kubernetes YAML is still under development!
#
# Save the output of this file and use kubectl create -f to import
# it into Kubernetes.
#
# Created with podman-1.6.4
apiVersion: v1
kind: Pod
metadata:
  creationTimestamp: "2020-07-29T19:22:40Z"
  labels:
    app: root
  name: root
spec:
  containers:
  - command:
    - /assets/wrapper
    env:
    - name: PATH
      value: /opt/gitlab/embedded/bin:/opt/gitlab/bin:/assets:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin
    - name: TERM
      value: xterm
    - name: HOSTNAME
      value: gitlab.example.com
    - name: container
      value: podman
    - name: GITLAB_OMNIBUS_CONFIG
      value: |
        gitlab_rails['gitlab_shell_ssh_port'] = 22222
    - name: LANG
      value: C.UTF-8
    image: docker.io/gitlab/gitlab-ce:latest
    name: rootgitlab1
    ports:
    - containerPort: 22
      hostPort: 22222
      protocol: TCP
    - containerPort: 80
      hostPort: 80
      protocol: TCP
    resources: {}
    securityContext:
      allowPrivilegeEscalation: true
      capabilities: {}
      privileged: false
      readOnlyRootFilesystem: false
    volumeMounts:
    - mountPath: /var/opt/gitlab
      name: srv-podman-gitlab-data
    - mountPath: /var/log/gitlab
      name: srv-podman-gitlab-logs
    - mountPath: /etc/gitlab
      name: srv-podman-gitlab-conf
    workingDir: /
  - command:
    - run
    - --user=gitlab-runner
    - --working-directory=/home/gitlab-runner
    env:
    - name: PATH
      value: /usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin
    - name: TERM
      value: xterm
    - name: HOSTNAME
    - name: container
      value: podman
    image: docker.io/gitlab/gitlab-runner:alpine
    name: rootgitlab-runner1
    resources: {}
    securityContext:
      allowPrivilegeEscalation: true
      capabilities: {}
      privileged: false
      readOnlyRootFilesystem: false
    volumeMounts:
    - mountPath: /etc/gitlab-runner
      name: srv-podman-gitlab-runner
    - mountPath: /var/run/docker.sock
      name: var-run-docker.sock
    workingDir: /
  volumes:
  - hostPath:
      path: /srv/podman/gitlab/runner
      type: Directory
    name: srv-podman-gitlab-runner
  - hostPath:
      path: /var/run/docker.sock
      type: File
    name: var-run-docker.sock
  - hostPath:
      path: /srv/podman/gitlab/data
      type: Directory
    name: srv-podman-gitlab-data
  - hostPath:
      path: /srv/podman/gitlab/logs
      type: Directory
    name: srv-podman-gitlab-logs
  - hostPath:
      path: /srv/podman/gitlab/conf
      type: Directory
    name: srv-podman-gitlab-conf
status: {}

systemd:

# podman generate systemd 71fc2b2a5c63
# pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
# autogenerated by Podman 1.6.4
# Thu Jul 29 15:23:28 EDT 2020

[Unit]
Description=Podman pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
Documentation=man:podman-generate-systemd(1)
Requires=container-781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3.service container-da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864.service
Before=container-781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3.service container-da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864.service

[Service]
Restart=on-failure
ExecStart=/usr/bin/podman start db40ab8bf84bf35141159c26cb6e256b889c7a98c0418eee3c4aa683c14fccaa
ExecStop=/usr/bin/podman stop -t 10 db40ab8bf84bf35141159c26cb6e256b889c7a98c0418eee3c4aa683c14fccaa
KillMode=none
Type=forking
PIDFile=/var/run/containers/storage/overlay-containers/db40ab8bf84bf35141159c26cb6e256b889c7a98c0418eee3c4aa683c14fccaa/userdata/conmon.pid

[Install]
WantedBy=multi-user.target
# container-da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864.service
# autogenerated by Podman 1.6.4
# Thu Jul 29 15:23:28 EDT 2020

[Unit]
Description=Podman container-da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864.service
Documentation=man:podman-generate-systemd(1)
RefuseManualStart=yes
RefuseManualStop=yes
BindsTo=pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
After=pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service

[Service]
Restart=on-failure
ExecStart=/usr/bin/podman start da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864
ExecStop=/usr/bin/podman stop -t 10 da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864
KillMode=none
Type=forking
PIDFile=/var/run/containers/storage/overlay-containers/da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864/userdata/conmon.pid

[Install]
WantedBy=multi-user.target
# container-781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3.service
# autogenerated by Podman 1.6.4
# Thu Jul 29 15:23:28 EDT 2020

[Unit]
Description=Podman container-781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3.service
Documentation=man:podman-generate-systemd(1)
RefuseManualStart=yes
RefuseManualStop=yes
BindsTo=pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
After=pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service

[Service]
Restart=on-failure
ExecStart=/usr/bin/podman start 781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3
ExecStop=/usr/bin/podman stop -t 10 781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3
KillMode=none
Type=forking
PIDFile=/var/run/containers/storage/overlay-containers/781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3/userdata/conmon.pid

[Install]
WantedBy=multi-user.target

Žiaľ, okrem spúšťania kontajnerov vygenerovaná jednotka pre systemd nerobí nič iné (napríklad čistí staré kontajnery pri reštarte takejto služby), takže takéto veci si budete musieť pridať sami.

V zásade stačí Podman vyskúšať, čo sú kontajnery, preniesť staré konfigurácie na docker-compose a potom ísť smerom ku Kubernetes, ak je to potrebné, na klastri alebo získať jednoduchšie použiteľnú alternatívu k Dockeru.

RKT

Projekt odišiel do archívu asi pred šiestimi mesiacmi kvôli tomu, že ho kúpil RedHat, tak sa mu nebudem podrobnejšie venovať. Vo všeobecnosti to zanechalo veľmi dobrý dojem, no v porovnaní s Dockerom a ešte viac s Podmanom pôsobí ako kombajn. Na rkt bola postavená aj distribúcia CoreOS (hoci pôvodne mali Docker), ale aj tá skončila po kúpe RedHat.

Flash

Viac jeden projekt, ktorej autor chcel práve postaviť a spustiť kontajnery. Súdiac podľa dokumentácie a kódu, autor sa neriadil štandardmi, ale jednoducho sa rozhodol napísať svoju vlastnú implementáciu, čo v zásade urobil.

Závery

Situácia s Kubernetes je veľmi zaujímavá: na jednej strane s Dockerom môžete zostaviť klaster (v režime swarm), s ktorým môžete dokonca prevádzkovať produkčné prostredia pre klientov, to platí najmä pre malé tímy (3-5 ľudí ), alebo s malým celkovým zaťažením alebo nedostatkom túžby porozumieť zložitosti nastavenia Kubernetes, a to aj pri vysokom zaťažení.

Podman neposkytuje plnú kompatibilitu, no má jednu dôležitú výhodu – kompatibilitu s Kubernetes vrátane doplnkových nástrojov (buildah a iné). Preto pristúpim k výberu nástroja na prácu nasledovne: pre malé tímy, alebo s obmedzeným rozpočtom - Docker (s možným rojovým režimom), pre vývoj pre seba na osobnom localhoste - súdruhovia Podman a pre všetkých ostatných - Kubernetes.

Nie som si istý, či sa situácia s Dockerom v budúcnosti nezmení, sú predsa priekopníci, a tiež sa pomaly krok za krokom štandardizujú, ale Podman so všetkými nedostatkami (funguje len na Linuxe, žiadne klastrovanie, montáž a ďalšie akcie sú rozhodnutiami tretích strán) budúcnosť je jasnejšia, preto vyzývam všetkých, aby tieto zistenia prediskutovali v komentároch.

PS 3. augusta spúšťame „Docker video kurzkde sa dozviete viac o jeho práci. Budeme analyzovať všetky jeho nástroje: od základných abstrakcií až po sieťové parametre, nuansy práce s rôznymi operačnými systémami a programovacími jazykmi. Zoznámite sa s technológiou a pochopíte, kde a ako najlepšie používať Docker. Podelíme sa aj o prípady osvedčených postupov.

Cena predobjednávky pred vydaním: 5000 XNUMX rubľov. Program "Docker Video Course" nájdete na stránke kurzu.

Zdroj: hab.com

Pridať komentár