Docker og alle, alle, alle

TL;DR: En oversigtsguide til sammenligning af rammer til at køre applikationer i containere. Mulighederne i Docker og andre lignende systemer vil blive overvejet.

Docker og alle, alle, alle

En lille historie om, hvor det hele kom fra

Story

Den første velkendte metode til at isolere en applikation er chroot. Systemkaldet af samme navn sikrer, at rodbiblioteket ændres - og sikrer dermed, at det program, der kaldte det, kun har adgang til filer i det pågældende bibliotek. Men hvis et program får root-privilegier internt, kan det potentielt "undslippe" chroot og få adgang til hovedoperativsystemet. Ud over at ændre rodbiblioteket er andre ressourcer (RAM, processor) såvel som netværksadgang ikke begrænset.

Den næste måde er at starte et fuldgyldigt operativsystem inde i containeren ved at bruge mekanismerne i operativsystemkernen. Denne metode kaldes forskelligt i forskellige operativsystemer, men essensen er den samme - at køre flere uafhængige operativsystemer, som hver især kører på den samme kerne, der kører hovedoperativsystemet. Dette inkluderer FreeBSD Jails, Solaris Zones, OpenVZ og LXC til Linux. Isolering leveres ikke kun for diskplads, men også for andre ressourcer, især hver container kan have begrænsninger på processortid, RAM, netværksbåndbredde. Sammenlignet med chroot er det sværere at forlade containeren, da superbrugeren i containeren kun har adgang til indersiden af ​​containeren, dog på grund af behovet for at holde operativsystemet inde i containeren opdateret og brugen af ​​gammel kerne versioner (relevant for Linux, i mindre grad FreeBSD), er der en ikke-nul sandsynlighed for at "bryde igennem" kerneisoleringssystemet og få adgang til hovedoperativsystemet.

I stedet for at starte et fuldt udviklet operativsystem i en container (med et initialiseringssystem, en pakkehåndtering osv.), kan applikationer startes med det samme, det vigtigste er at give applikationer denne mulighed (tilstedeværelsen af ​​de nødvendige biblioteker og andre filer). Denne idé tjente som grundlag for containeriseret applikationsvirtualisering, hvor den mest fremtrædende og velkendte repræsentant er Docker. Sammenlignet med tidligere systemer resulterede mere fleksible isolationsmekanismer, sammen med indbygget understøttelse af virtuelle netværk mellem containere og applikationstilstand inde i en container, i muligheden for at bygge et enkelt holistisk miljø fra et stort antal fysiske servere til at køre containere - uden behovet for manuel ressourcestyring.

Docker

Docker er den mest kendte applikationscontaineriseringssoftware. Skrevet på Go-sproget bruger den standardfunktionerne i Linux-kernen - cgroups, namespaces, kapaciteter osv., samt Aufs-filsystemer og andre lignende for at spare diskplads.

Docker og alle, alle, alle
Kilde: wikimedia

arkitektur

Før version 1.11 arbejdede Docker som en enkelt tjeneste, der udførte alle operationer med containere: downloading af billeder til containere, lancering af containere, behandling af API-anmodninger. Startende med version 1.11 blev Docker opdelt i flere dele, der interagerer med hinanden: containerd, til behandling af hele livscyklussen af ​​containere (allokering af diskplads, download af billeder, arbejde med netværket, lancering, installation og overvågning af containernes tilstand) og runC, containerudførelsesmiljøet, baseret på brugen af ​​cgroups og andre funktioner i Linux-kernen. Selve docker-tjenesten forbliver, men nu tjener den kun til at behandle API-anmodninger oversat til containerd.

Docker og alle, alle, alle

Installation og konfiguration

Min foretrukne måde at installere docker på er docker-machine, som udover at installere og konfigurere docker direkte på fjernservere (inklusive forskellige skyer), gør det muligt at arbejde med filsystemer på fjernservere og også kan køre forskellige kommandoer.

Siden 2018 har projektet dog næsten ikke været udviklet, så vi installerer det på den sædvanlige måde for de fleste Linux-distributioner – ved at tilføje et repository og installere de nødvendige pakker.

Denne metode bruges også til automatiseret installation, for eksempel ved brug af Ansible eller andre lignende systemer, men jeg vil ikke overveje det i denne artikel.

Installationen vil blive udført på Centos 7, jeg vil bruge en virtuel maskine som server, for at installere skal du blot køre kommandoerne nedenfor:

# yum install -y yum-utils
# yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo
# yum install docker-ce docker-ce-cli containerd.io

Efter installationen skal du starte tjenesten, sætte den i autoload:

# systemctl enable docker
# systemctl start docker
# firewall-cmd --zone=public --add-port=2377/tcp --permanent

Derudover kan du oprette en docker-gruppe, hvis brugere vil være i stand til at arbejde med docker uden sudo, konfigurere logning, aktivere adgang til API'en udefra, og glem ikke at konfigurere firewall'en mere præcist (alt hvad der ikke er tilladt er forbudt i eksemplerne ovenfor og nedenfor - jeg har udeladt dette for overskuelighed og visualisering), men jeg vil ikke gå mere i detaljer her.

Andre funktioner

Ud over den ovennævnte docker-maskine er der også docker registry, et værktøj til lagring af billeder til containere, samt docker compose, et værktøj til automatisering af udrulning af applikationer i containere, YAML-filer bruges til at bygge og konfigurere containere og andre relaterede ting (f.eks. netværk, vedvarende filsystemer til lagring af data).

Det kan også bruges til at organisere pipelines til CICD. En anden interessant funktion er at arbejde i klyngetilstand, den såkaldte swarm-tilstand (før version 1.12 var den kendt som docker swarm), som giver dig mulighed for at samle en enkelt infrastruktur fra flere servere til at køre containere. Der er understøttelse af et virtuelt netværk oven på alle servere, der er indbygget load balancer, samt understøttelse af hemmeligheder til containere.

YAML-filer fra docker compose, med mindre ændringer, kan bruges til sådanne klynger, hvilket fuldstændig automatiserer vedligeholdelsen af ​​små og mellemstore klynger til forskellige formål. For store klynger er Kubernetes at foretrække, fordi vedligeholdelsesomkostningerne ved swarm mode kan overstige Kubernetes. Udover runC kan du f.eks. installere som containerudførelsesmiljøet Kata containere

Arbejder med Docker

Efter installation og konfiguration vil vi forsøge at samle en klynge, hvori vi vil implementere GitLab og Docker Registry for udviklingsteamet. Jeg vil bruge tre virtuelle maskiner som servere, hvorpå jeg desuden vil implementere den distribuerede FS GlusterFS; Jeg vil bruge den som et docker-volumenlager, for eksempel til at køre en fejltolerant version af docker-registret. Nøglekomponenter at køre: Docker Registry, Postgresql, Redis, GitLab med understøttelse af GitLab Runner oven på Swarm. Vi vil lancere Postgresql med clustering stolon, så du behøver ikke bruge GlusterFS til at gemme Postgresql-data. Resten af ​​de kritiske data vil blive gemt på GlusterFS.

For at implementere GlusterFS på alle servere (de kaldes node1, node2, node3), skal du installere pakker, aktivere firewallen og oprette de nødvendige mapper:

# yum -y install centos-release-gluster7
# yum -y install glusterfs-server
# systemctl enable glusterd
# systemctl start glusterd
# firewall-cmd --add-service=glusterfs --permanent
# firewall-cmd --reload
# mkdir -p /srv/gluster
# mkdir -p /srv/docker
# echo "$(hostname):/docker /srv/docker glusterfs defaults,_netdev 0 0" >> /etc/fstab

Efter installationen skal arbejdet med at konfigurere GlusterFS fortsættes fra én node, for eksempel node1:

# gluster peer probe node2
# gluster peer probe node3
# gluster volume create docker replica 3 node1:/srv/gluster node2:/srv/gluster node3:/srv/gluster force
# gluster volume start docker

Derefter skal du montere den resulterende volumen (kommandoen skal køres på alle servere):

# mount /srv/docker

Sværmtilstanden er konfigureret på en af ​​serverne, som vil være lederen, resten skal slutte sig til klyngen, så resultatet af at udføre kommandoen på den første server skal kopieres og udføres på de andre.

Indledende klyngeopsætning, jeg kører kommandoen på node1:

# docker swarm init
Swarm initialized: current node (a5jpfrh5uvo7svzz1ajduokyq) is now a manager.

To add a worker to this swarm, run the following command:

    docker swarm join --token SWMTKN-1-0c5mf7mvzc7o7vjk0wngno2dy70xs95tovfxbv4tqt9280toku-863hyosdlzvd76trfptd4xnzd xx.xx.xx.xx:2377

To add a manager to this swarm, run 'docker swarm join-token manager' and follow the instructions.
# docker swarm join-token manager

Kopier resultatet af den anden kommando, kør på node2 og node3:

# docker swarm join --token SWMTKN-x-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx-xxxxxxxxx xx.xx.xx.xx:2377
This node joined a swarm as a manager.

Dette fuldender den foreløbige konfiguration af serverne, lad os begynde at konfigurere tjenesterne, de kommandoer, der skal udføres, vil blive lanceret fra node1, medmindre andet er angivet.

Lad os først og fremmest oprette netværk til containere:

# docker network create --driver=overlay etcd
# docker network create --driver=overlay pgsql
# docker network create --driver=overlay redis
# docker network create --driver=overlay traefik
# docker network create --driver=overlay gitlab

Så markerer vi serverne, dette er nødvendigt for at binde nogle tjenester til serverne:

# docker node update --label-add nodename=node1 node1
# docker node update --label-add nodename=node2 node2
# docker node update --label-add nodename=node3 node3

Dernæst opretter vi mapper til lagring af etcd-data, KV-lagring, som er nødvendig for Traefik og Stolon. I lighed med Postgresql vil disse være containere knyttet til servere, så vi kører denne kommando på alle servere:

# mkdir -p /srv/etcd

Derefter skal du oprette en fil for at konfigurere etcd og anvende den:

00etcd.yml

version: '3.7'

services:
  etcd1:
    image: quay.io/coreos/etcd:latest
    hostname: etcd1
    command:
      - etcd
      - --name=etcd1
      - --data-dir=/data.etcd
      - --advertise-client-urls=http://etcd1:2379
      - --listen-client-urls=http://0.0.0.0:2379
      - --initial-advertise-peer-urls=http://etcd1:2380
      - --listen-peer-urls=http://0.0.0.0:2380
      - --initial-cluster=etcd1=http://etcd1:2380,etcd2=http://etcd2:2380,etcd3=http://etcd3:2380
      - --initial-cluster-state=new
      - --initial-cluster-token=etcd-cluster
    networks:
      - etcd
    volumes:
      - etcd1vol:/data.etcd
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node1]
  etcd2:
    image: quay.io/coreos/etcd:latest
    hostname: etcd2
    command:
      - etcd
      - --name=etcd2
      - --data-dir=/data.etcd
      - --advertise-client-urls=http://etcd2:2379
      - --listen-client-urls=http://0.0.0.0:2379
      - --initial-advertise-peer-urls=http://etcd2:2380
      - --listen-peer-urls=http://0.0.0.0:2380
      - --initial-cluster=etcd1=http://etcd1:2380,etcd2=http://etcd2:2380,etcd3=http://etcd3:2380
      - --initial-cluster-state=new
      - --initial-cluster-token=etcd-cluster
    networks:
      - etcd
    volumes:
      - etcd2vol:/data.etcd
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node2]
  etcd3:
    image: quay.io/coreos/etcd:latest
    hostname: etcd3
    command:
      - etcd
      - --name=etcd3
      - --data-dir=/data.etcd
      - --advertise-client-urls=http://etcd3:2379
      - --listen-client-urls=http://0.0.0.0:2379
      - --initial-advertise-peer-urls=http://etcd3:2380
      - --listen-peer-urls=http://0.0.0.0:2380
      - --initial-cluster=etcd1=http://etcd1:2380,etcd2=http://etcd2:2380,etcd3=http://etcd3:2380
      - --initial-cluster-state=new
      - --initial-cluster-token=etcd-cluster
    networks:
      - etcd
    volumes:
      - etcd3vol:/data.etcd
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node3]

volumes:
  etcd1vol:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/etcd"
  etcd2vol:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/etcd"
  etcd3vol:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/etcd"

networks:
  etcd:
    external: true

# docker stack deploy --compose-file 00etcd.yml etcd

Efter et stykke tid kontrollerer vi, at etcd-klyngen er steget:

# docker exec $(docker ps | awk '/etcd/ {print $1}')  etcdctl member list
ade526d28b1f92f7: name=etcd1 peerURLs=http://etcd1:2380 clientURLs=http://etcd1:2379 isLeader=false
bd388e7810915853: name=etcd3 peerURLs=http://etcd3:2380 clientURLs=http://etcd3:2379 isLeader=false
d282ac2ce600c1ce: name=etcd2 peerURLs=http://etcd2:2380 clientURLs=http://etcd2:2379 isLeader=true
# docker exec $(docker ps | awk '/etcd/ {print $1}')  etcdctl cluster-health
member ade526d28b1f92f7 is healthy: got healthy result from http://etcd1:2379
member bd388e7810915853 is healthy: got healthy result from http://etcd3:2379
member d282ac2ce600c1ce is healthy: got healthy result from http://etcd2:2379
cluster is healthy

Vi opretter mapper til Postgresql, udfør kommandoen på alle servere:

# mkdir -p /srv/pgsql

Opret derefter en fil for at konfigurere Postgresql:

01pgsql.yml

version: '3.7'

services:
  pgsentinel:
    image: sorintlab/stolon:master-pg10
    command:
      - gosu
      - stolon
      - stolon-sentinel
      - --cluster-name=stolon-cluster
      - --store-backend=etcdv3
      - --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
      - --log-level=debug
    networks:
      - etcd
      - pgsql
    deploy:
      replicas: 3
      update_config:
        parallelism: 1
        delay: 30s
        order: stop-first
        failure_action: pause
  pgkeeper1:
    image: sorintlab/stolon:master-pg10
    hostname: pgkeeper1
    command:
      - gosu
      - stolon
      - stolon-keeper
      - --pg-listen-address=pgkeeper1
      - --pg-repl-username=replica
      - --uid=pgkeeper1
      - --pg-su-username=postgres
      - --pg-su-passwordfile=/run/secrets/pgsql
      - --pg-repl-passwordfile=/run/secrets/pgsql_repl
      - --data-dir=/var/lib/postgresql/data
      - --cluster-name=stolon-cluster
      - --store-backend=etcdv3
      - --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
    networks:
      - etcd
      - pgsql
    environment:
      - PGDATA=/var/lib/postgresql/data
    volumes:
      - pgkeeper1:/var/lib/postgresql/data
    secrets:
      - pgsql
      - pgsql_repl
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node1]
  pgkeeper2:
    image: sorintlab/stolon:master-pg10
    hostname: pgkeeper2
    command:
      - gosu
      - stolon 
      - stolon-keeper
      - --pg-listen-address=pgkeeper2
      - --pg-repl-username=replica
      - --uid=pgkeeper2
      - --pg-su-username=postgres
      - --pg-su-passwordfile=/run/secrets/pgsql
      - --pg-repl-passwordfile=/run/secrets/pgsql_repl
      - --data-dir=/var/lib/postgresql/data
      - --cluster-name=stolon-cluster
      - --store-backend=etcdv3
      - --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
    networks:
      - etcd
      - pgsql
    environment:
      - PGDATA=/var/lib/postgresql/data
    volumes:
      - pgkeeper2:/var/lib/postgresql/data
    secrets:
      - pgsql
      - pgsql_repl
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node2]
  pgkeeper3:
    image: sorintlab/stolon:master-pg10
    hostname: pgkeeper3
    command:
      - gosu
      - stolon 
      - stolon-keeper
      - --pg-listen-address=pgkeeper3
      - --pg-repl-username=replica
      - --uid=pgkeeper3
      - --pg-su-username=postgres
      - --pg-su-passwordfile=/run/secrets/pgsql
      - --pg-repl-passwordfile=/run/secrets/pgsql_repl
      - --data-dir=/var/lib/postgresql/data
      - --cluster-name=stolon-cluster
      - --store-backend=etcdv3
      - --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
    networks:
      - etcd
      - pgsql
    environment:
      - PGDATA=/var/lib/postgresql/data
    volumes:
      - pgkeeper3:/var/lib/postgresql/data
    secrets:
      - pgsql
      - pgsql_repl
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node3]
  postgresql:
    image: sorintlab/stolon:master-pg10
    command: gosu stolon stolon-proxy --listen-address 0.0.0.0 --cluster-name stolon-cluster --store-backend=etcdv3 --store-endpoints http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
    networks:
      - etcd
      - pgsql
    deploy:
      replicas: 3
      update_config:
        parallelism: 1
        delay: 30s
        order: stop-first
        failure_action: rollback

volumes:
  pgkeeper1:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/pgsql"
  pgkeeper2:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/pgsql"
  pgkeeper3:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/pgsql"

secrets:
  pgsql:
    file: "/srv/docker/postgres"
  pgsql_repl:
    file: "/srv/docker/replica"

networks:
  etcd:
    external: true
  pgsql:
    external: true

Vi genererer hemmeligheder, anvender filen:

# </dev/urandom tr -dc 234567890qwertyuopasdfghjkzxcvbnmQWERTYUPASDFGHKLZXCVBNM | head -c $(((RANDOM%3)+15)) > /srv/docker/replica
# </dev/urandom tr -dc 234567890qwertyuopasdfghjkzxcvbnmQWERTYUPASDFGHKLZXCVBNM | head -c $(((RANDOM%3)+15)) > /srv/docker/postgres
# docker stack deploy --compose-file 01pgsql.yml pgsql

Efter nogen tid (se outputtet af kommandoen havnearbejder service lsat alle tjenester er oppe), initialiserer vi Postgresql-klyngen:

# docker exec $(docker ps | awk '/pgkeeper/ {print $1}') stolonctl --cluster-name=stolon-cluster --store-backend=etcdv3 --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379 init

Kontrol af klarheden af ​​Postgresql-klyngen:

# docker exec $(docker ps | awk '/pgkeeper/ {print $1}') stolonctl --cluster-name=stolon-cluster --store-backend=etcdv3 --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379 status
=== Active sentinels ===

ID      LEADER
26baa11d    false
74e98768    false
a8cb002b    true

=== Active proxies ===

ID
4d233826
9f562f3b
b0c79ff1

=== Keepers ===

UID     HEALTHY PG LISTENADDRESS    PG HEALTHY  PG WANTEDGENERATION PG CURRENTGENERATION
pgkeeper1   true    pgkeeper1:5432         true     2           2
pgkeeper2   true    pgkeeper2:5432          true            2                   2
pgkeeper3   true    pgkeeper3:5432          true            3                   3

=== Cluster Info ===

Master Keeper: pgkeeper3

===== Keepers/DB tree =====

pgkeeper3 (master)
├─pgkeeper2
└─pgkeeper1

Vi konfigurerer traefik til at åbne adgang til containere udefra:

03traefik.yml

version: '3.7'

services:
  traefik:
    image: traefik:latest
    command: >
      --log.level=INFO
      --providers.docker=true
      --entryPoints.web.address=:80
      --providers.providersThrottleDuration=2
      --providers.docker.watch=true
      --providers.docker.swarmMode=true
      --providers.docker.swarmModeRefreshSeconds=15s
      --providers.docker.exposedbydefault=false
      --accessLog.bufferingSize=0
      --api=true
      --api.dashboard=true
      --api.insecure=true
    networks:
      - traefik
    ports:
      - 80:80
    volumes:
      - /var/run/docker.sock:/var/run/docker.sock
    deploy:
      replicas: 3
      placement:
        constraints:
          - node.role == manager
        preferences:
          - spread: node.id
      labels:
        - traefik.enable=true
        - traefik.http.routers.traefik.rule=Host(`traefik.example.com`)
        - traefik.http.services.traefik.loadbalancer.server.port=8080
        - traefik.docker.network=traefik

networks:
  traefik:
    external: true

# docker stack deploy --compose-file 03traefik.yml traefik

Vi starter Redis Cluster, til dette opretter vi en lagermappe på alle noder:

# mkdir -p /srv/redis

05redis.yml

version: '3.7'

services:
  redis-master:
    image: 'bitnami/redis:latest'
    networks:
      - redis
    ports:
      - '6379:6379'
    environment:
      - REDIS_REPLICATION_MODE=master
      - REDIS_PASSWORD=xxxxxxxxxxx
    deploy:
      mode: global
      restart_policy:
        condition: any
    volumes:
      - 'redis:/opt/bitnami/redis/etc/'

  redis-replica:
    image: 'bitnami/redis:latest'
    networks:
      - redis
    ports:
      - '6379'
    depends_on:
      - redis-master
    environment:
      - REDIS_REPLICATION_MODE=slave
      - REDIS_MASTER_HOST=redis-master
      - REDIS_MASTER_PORT_NUMBER=6379
      - REDIS_MASTER_PASSWORD=xxxxxxxxxxx
      - REDIS_PASSWORD=xxxxxxxxxxx
    deploy:
      mode: replicated
      replicas: 3
      update_config:
        parallelism: 1
        delay: 10s
      restart_policy:
        condition: any

  redis-sentinel:
    image: 'bitnami/redis:latest'
    networks:
      - redis
    ports:
      - '16379'
    depends_on:
      - redis-master
      - redis-replica
    entrypoint: |
      bash -c 'bash -s <<EOF
      "/bin/bash" -c "cat <<EOF > /opt/bitnami/redis/etc/sentinel.conf
      port 16379
      dir /tmp
      sentinel monitor master-node redis-master 6379 2
      sentinel down-after-milliseconds master-node 5000
      sentinel parallel-syncs master-node 1
      sentinel failover-timeout master-node 5000
      sentinel auth-pass master-node xxxxxxxxxxx
      sentinel announce-ip redis-sentinel
      sentinel announce-port 16379
      EOF"
      "/bin/bash" -c "redis-sentinel /opt/bitnami/redis/etc/sentinel.conf"
      EOF'
    deploy:
      mode: global
      restart_policy:
        condition: any

volumes:
  redis:
    driver: local
    driver_opts:
      type: 'none'
      o: 'bind'
      device: "/srv/redis"

networks:
  redis:
    external: true

# docker stack deploy --compose-file 05redis.yml redis

Tilføj Docker Registry:

06registry.yml

version: '3.7'

services:
  registry:
    image: registry:2.6
    networks:
      - traefik
    volumes:
      - registry_data:/var/lib/registry
    deploy:
      replicas: 1
      placement:
        constraints: [node.role == manager]
      restart_policy:
        condition: on-failure
      labels:
        - traefik.enable=true
        - traefik.http.routers.registry.rule=Host(`registry.example.com`)
        - traefik.http.services.registry.loadbalancer.server.port=5000
        - traefik.docker.network=traefik

volumes:
  registry_data:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/docker/registry"

networks:
  traefik:
    external: true

# mkdir /srv/docker/registry
# docker stack deploy --compose-file 06registry.yml registry

Og endelig - GitLab:

08gitlab-runner.yml

version: '3.7'

services:
  gitlab:
    image: gitlab/gitlab-ce:latest
    networks:
      - pgsql
      - redis
      - traefik
      - gitlab
    ports:
      - 22222:22
    environment:
      GITLAB_OMNIBUS_CONFIG: |
        postgresql['enable'] = false
        redis['enable'] = false
        gitlab_rails['registry_enabled'] = false
        gitlab_rails['db_username'] = "gitlab"
        gitlab_rails['db_password'] = "XXXXXXXXXXX"
        gitlab_rails['db_host'] = "postgresql"
        gitlab_rails['db_port'] = "5432"
        gitlab_rails['db_database'] = "gitlab"
        gitlab_rails['db_adapter'] = 'postgresql'
        gitlab_rails['db_encoding'] = 'utf8'
        gitlab_rails['redis_host'] = 'redis-master'
        gitlab_rails['redis_port'] = '6379'
        gitlab_rails['redis_password'] = 'xxxxxxxxxxx'
        gitlab_rails['smtp_enable'] = true
        gitlab_rails['smtp_address'] = "smtp.yandex.ru"
        gitlab_rails['smtp_port'] = 465
        gitlab_rails['smtp_user_name'] = "[email protected]"
        gitlab_rails['smtp_password'] = "xxxxxxxxx"
        gitlab_rails['smtp_domain'] = "example.com"
        gitlab_rails['gitlab_email_from'] = '[email protected]'
        gitlab_rails['smtp_authentication'] = "login"
        gitlab_rails['smtp_tls'] = true
        gitlab_rails['smtp_enable_starttls_auto'] = true
        gitlab_rails['smtp_openssl_verify_mode'] = 'peer'
        external_url 'http://gitlab.example.com/'
        gitlab_rails['gitlab_shell_ssh_port'] = 22222
    volumes:
      - gitlab_conf:/etc/gitlab
      - gitlab_logs:/var/log/gitlab
      - gitlab_data:/var/opt/gitlab
    deploy:
      mode: replicated
      replicas: 1
      placement:
        constraints:
        - node.role == manager
      labels:
        - traefik.enable=true
        - traefik.http.routers.gitlab.rule=Host(`gitlab.example.com`)
        - traefik.http.services.gitlab.loadbalancer.server.port=80
        - traefik.docker.network=traefik
  gitlab-runner:
    image: gitlab/gitlab-runner:latest
    networks:
      - gitlab
    volumes:
      - gitlab_runner_conf:/etc/gitlab
      - /var/run/docker.sock:/var/run/docker.sock
    deploy:
      mode: replicated
      replicas: 1
      placement:
        constraints:
        - node.role == manager

volumes:
  gitlab_conf:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/docker/gitlab/conf"
  gitlab_logs:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/docker/gitlab/logs"
  gitlab_data:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/docker/gitlab/data"
  gitlab_runner_conf:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/docker/gitlab/runner"

networks:
  pgsql:
    external: true
  redis:
    external: true
  traefik:
    external: true
  gitlab:
    external: true

# mkdir -p /srv/docker/gitlab/conf
# mkdir -p /srv/docker/gitlab/logs
# mkdir -p /srv/docker/gitlab/data
# mkdir -p /srv/docker/gitlab/runner
# docker stack deploy --compose-file 08gitlab-runner.yml gitlab

Den endelige tilstand af klyngen og tjenester:

# docker service ls
ID                  NAME                   MODE                REPLICAS            IMAGE                          PORTS
lef9n3m92buq        etcd_etcd1             replicated          1/1                 quay.io/coreos/etcd:latest
ij6uyyo792x5        etcd_etcd2             replicated          1/1                 quay.io/coreos/etcd:latest
fqttqpjgp6pp        etcd_etcd3             replicated          1/1                 quay.io/coreos/etcd:latest
hq5iyga28w33        gitlab_gitlab          replicated          1/1                 gitlab/gitlab-ce:latest        *:22222->22/tcp
dt7s6vs0q4qc        gitlab_gitlab-runner   replicated          1/1                 gitlab/gitlab-runner:latest
k7uoezno0h9n        pgsql_pgkeeper1        replicated          1/1                 sorintlab/stolon:master-pg10
cnrwul4r4nse        pgsql_pgkeeper2        replicated          1/1                 sorintlab/stolon:master-pg10
frflfnpty7tr        pgsql_pgkeeper3        replicated          1/1                 sorintlab/stolon:master-pg10
x7pqqchi52kq        pgsql_pgsentinel       replicated          3/3                 sorintlab/stolon:master-pg10
mwu2wl8fti4r        pgsql_postgresql       replicated          3/3                 sorintlab/stolon:master-pg10
9hkbe2vksbzb        redis_redis-master     global              3/3                 bitnami/redis:latest           *:6379->6379/tcp
l88zn8cla7dc        redis_redis-replica    replicated          3/3                 bitnami/redis:latest           *:30003->6379/tcp
1utp309xfmsy        redis_redis-sentinel   global              3/3                 bitnami/redis:latest           *:30002->16379/tcp
oteb824ylhyp        registry_registry      replicated          1/1                 registry:2.6
qovrah8nzzu8        traefik_traefik        replicated          3/3                 traefik:latest                 *:80->80/tcp, *:443->443/tcp

Hvad kan ellers forbedres? Sørg for at konfigurere Traefik til at køre containere over https, tilføj tls-kryptering til Postgresql og Redis. Men generelt kan du allerede give det til udviklere som en PoC. Lad os nu se på alternativer til Docker.

Podman

En anden ret velkendt motor til at køre containere grupperet efter pods (pods, grupper af containere udplaceret sammen). I modsætning til Docker kræver det ingen service at køre containere, alt arbejde udføres gennem libpod-biblioteket. Også skrevet i Go, har brug for en OCI-kompatibel runtime for at køre containere som runC.

Docker og alle, alle, alle

At arbejde med Podman minder generelt om det for Docker, til det punkt, at du kan gøre det på denne måde (som sagt af mange, der har prøvet det, inklusive forfatteren af ​​denne artikel):

$ alias docker=podman

og du kan fortsætte med at arbejde. Generelt er situationen med Podman meget interessant, for hvis de tidlige versioner af Kubernetes arbejdede med Docker, så siden omkring 2015, efter at have standardiseret containerverdenen (OCI - Open Container Initiative) og opdelt Docker i containerd og runC, et alternativ til Docker udvikles til at køre i Kubernetes: CRI-O. Podman er i denne henseende et alternativ til Docker, bygget på principperne fra Kubernetes, herunder containergruppering, men hovedmålet med projektet er at køre containere i Docker-stil uden yderligere tjenester. Af indlysende grunde er der ingen sværmtilstand, da udviklerne tydeligt siger, at hvis du har brug for en klynge, så tag Kubernetes.

Installation

For at installere på Centos 7 skal du bare aktivere Extras-lageret og derefter installere alt med kommandoen:

# yum -y install podman

Andre funktioner

Podman kan generere enheder til systemd, og dermed løse problemet med at starte containere efter en servergenstart. Derudover er systemd erklæret at fungere korrekt som pid 1 i containeren. Der er et separat buildah-værktøj til at bygge containere, der er også tredjepartsværktøjer - analoger af docker-compose, som også genererer konfigurationsfiler, der er kompatible med Kubernetes, så overgangen fra Podman til Kubernetes forenkles så meget som muligt.

Arbejder med Podman

Da der ikke er nogen sværmtilstand (det er meningen, at vi skal skifte til Kubernetes, hvis der er behov for en klynge), samler vi den i separate beholdere.

Installer podman-compose:

# yum -y install python3-pip
# pip3 install podman-compose

Den resulterende konfigurationsfil for podman er lidt anderledes, så for eksempel var vi nødt til at flytte en separat volumensektion direkte til sektionen med tjenester.

gitlab-podman.yml

version: '3.7'

services:
  gitlab:
    image: gitlab/gitlab-ce:latest
    hostname: gitlab.example.com
    restart: unless-stopped
    environment:
      GITLAB_OMNIBUS_CONFIG: |
        gitlab_rails['gitlab_shell_ssh_port'] = 22222
    ports:
      - "80:80"
      - "22222:22"
    volumes:
      - /srv/podman/gitlab/conf:/etc/gitlab
      - /srv/podman/gitlab/data:/var/opt/gitlab
      - /srv/podman/gitlab/logs:/var/log/gitlab
    networks:
      - gitlab

  gitlab-runner:
    image: gitlab/gitlab-runner:alpine
    restart: unless-stopped
    depends_on:
      - gitlab
    volumes:
      - /srv/podman/gitlab/runner:/etc/gitlab-runner
      - /var/run/docker.sock:/var/run/docker.sock
    networks:
      - gitlab

networks:
  gitlab:

# podman-compose -f gitlab-runner.yml -d up

Resultat af arbejdet:

# podman ps
CONTAINER ID  IMAGE                                  COMMAND               CREATED             STATUS                 PORTS                                      NAMES
da53da946c01  docker.io/gitlab/gitlab-runner:alpine  run --user=gitlab...  About a minute ago  Up About a minute ago  0.0.0.0:22222->22/tcp, 0.0.0.0:80->80/tcp  root_gitlab-runner_1
781c0103c94a  docker.io/gitlab/gitlab-ce:latest      /assets/wrapper       About a minute ago  Up About a minute ago  0.0.0.0:22222->22/tcp, 0.0.0.0:80->80/tcp  root_gitlab_1

Lad os se, hvad det genererer for systemd og kubernetes, for dette skal vi finde ud af pod'ens navn eller id:

# podman pod ls
POD ID         NAME   STATUS    CREATED          # OF CONTAINERS   INFRA ID
71fc2b2a5c63   root   Running   11 minutes ago   3                 db40ab8bf84b

Kubernetes:

# podman generate kube 71fc2b2a5c63
# Generation of Kubernetes YAML is still under development!
#
# Save the output of this file and use kubectl create -f to import
# it into Kubernetes.
#
# Created with podman-1.6.4
apiVersion: v1
kind: Pod
metadata:
  creationTimestamp: "2020-07-29T19:22:40Z"
  labels:
    app: root
  name: root
spec:
  containers:
  - command:
    - /assets/wrapper
    env:
    - name: PATH
      value: /opt/gitlab/embedded/bin:/opt/gitlab/bin:/assets:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin
    - name: TERM
      value: xterm
    - name: HOSTNAME
      value: gitlab.example.com
    - name: container
      value: podman
    - name: GITLAB_OMNIBUS_CONFIG
      value: |
        gitlab_rails['gitlab_shell_ssh_port'] = 22222
    - name: LANG
      value: C.UTF-8
    image: docker.io/gitlab/gitlab-ce:latest
    name: rootgitlab1
    ports:
    - containerPort: 22
      hostPort: 22222
      protocol: TCP
    - containerPort: 80
      hostPort: 80
      protocol: TCP
    resources: {}
    securityContext:
      allowPrivilegeEscalation: true
      capabilities: {}
      privileged: false
      readOnlyRootFilesystem: false
    volumeMounts:
    - mountPath: /var/opt/gitlab
      name: srv-podman-gitlab-data
    - mountPath: /var/log/gitlab
      name: srv-podman-gitlab-logs
    - mountPath: /etc/gitlab
      name: srv-podman-gitlab-conf
    workingDir: /
  - command:
    - run
    - --user=gitlab-runner
    - --working-directory=/home/gitlab-runner
    env:
    - name: PATH
      value: /usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin
    - name: TERM
      value: xterm
    - name: HOSTNAME
    - name: container
      value: podman
    image: docker.io/gitlab/gitlab-runner:alpine
    name: rootgitlab-runner1
    resources: {}
    securityContext:
      allowPrivilegeEscalation: true
      capabilities: {}
      privileged: false
      readOnlyRootFilesystem: false
    volumeMounts:
    - mountPath: /etc/gitlab-runner
      name: srv-podman-gitlab-runner
    - mountPath: /var/run/docker.sock
      name: var-run-docker.sock
    workingDir: /
  volumes:
  - hostPath:
      path: /srv/podman/gitlab/runner
      type: Directory
    name: srv-podman-gitlab-runner
  - hostPath:
      path: /var/run/docker.sock
      type: File
    name: var-run-docker.sock
  - hostPath:
      path: /srv/podman/gitlab/data
      type: Directory
    name: srv-podman-gitlab-data
  - hostPath:
      path: /srv/podman/gitlab/logs
      type: Directory
    name: srv-podman-gitlab-logs
  - hostPath:
      path: /srv/podman/gitlab/conf
      type: Directory
    name: srv-podman-gitlab-conf
status: {}

Systemd:

# podman generate systemd 71fc2b2a5c63
# pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
# autogenerated by Podman 1.6.4
# Thu Jul 29 15:23:28 EDT 2020

[Unit]
Description=Podman pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
Documentation=man:podman-generate-systemd(1)
Requires=container-781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3.service container-da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864.service
Before=container-781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3.service container-da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864.service

[Service]
Restart=on-failure
ExecStart=/usr/bin/podman start db40ab8bf84bf35141159c26cb6e256b889c7a98c0418eee3c4aa683c14fccaa
ExecStop=/usr/bin/podman stop -t 10 db40ab8bf84bf35141159c26cb6e256b889c7a98c0418eee3c4aa683c14fccaa
KillMode=none
Type=forking
PIDFile=/var/run/containers/storage/overlay-containers/db40ab8bf84bf35141159c26cb6e256b889c7a98c0418eee3c4aa683c14fccaa/userdata/conmon.pid

[Install]
WantedBy=multi-user.target
# container-da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864.service
# autogenerated by Podman 1.6.4
# Thu Jul 29 15:23:28 EDT 2020

[Unit]
Description=Podman container-da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864.service
Documentation=man:podman-generate-systemd(1)
RefuseManualStart=yes
RefuseManualStop=yes
BindsTo=pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
After=pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service

[Service]
Restart=on-failure
ExecStart=/usr/bin/podman start da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864
ExecStop=/usr/bin/podman stop -t 10 da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864
KillMode=none
Type=forking
PIDFile=/var/run/containers/storage/overlay-containers/da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864/userdata/conmon.pid

[Install]
WantedBy=multi-user.target
# container-781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3.service
# autogenerated by Podman 1.6.4
# Thu Jul 29 15:23:28 EDT 2020

[Unit]
Description=Podman container-781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3.service
Documentation=man:podman-generate-systemd(1)
RefuseManualStart=yes
RefuseManualStop=yes
BindsTo=pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
After=pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service

[Service]
Restart=on-failure
ExecStart=/usr/bin/podman start 781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3
ExecStop=/usr/bin/podman stop -t 10 781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3
KillMode=none
Type=forking
PIDFile=/var/run/containers/storage/overlay-containers/781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3/userdata/conmon.pid

[Install]
WantedBy=multi-user.target

Desværre, bortset fra at starte containere, gør den genererede enhed til systemd ikke andet (f.eks. at rydde op i gamle containere, når en sådan service genstartes), så du bliver nødt til at skrive sådanne ting selv.

I princippet er Podman nok til at prøve, hvad containere er, overføre gamle konfigurationer til docker-compose og derefter bevæge dig mod Kubernetes, hvis du har brug for en klynge, eller få et lettere at bruge alternativ til Docker.

RKT

Projekt gået til arkivet for omkring et halvt år siden på grund af, at RedHat købte det, så jeg vil ikke dvæle mere ved det. Generelt efterlod det et meget godt indtryk, men sammenlignet med Docker, og endnu mere til Podman, ligner det en mejetærsker. Der var også en CoreOS-distribution bygget oven på rkt (selvom de oprindeligt havde Docker), men det sluttede også efter RedHat-købet.

Plask

andet ét projekt, hvis forfatter bare ønskede at bygge og køre containere. At dømme efter dokumentationen og koden fulgte forfatteren ikke standarderne, men besluttede blot at skrive sin egen implementering, hvilket han i princippet gjorde.

Fund

Situationen med Kubernetes er meget interessant: På den ene side kan du med Docker bygge en klynge (i sværmtilstand), med hvilken du endda kan køre produktmiljøer for kunder, dette gælder især for små teams (3-5 personer) , eller med en lille samlet belastning , eller manglende lyst til at forstå forviklingerne ved at opsætte Kubernetes, herunder til høje belastninger.

Podman giver ikke fuld kompatibilitet, men det har en vigtig fordel - kompatibilitet med Kubernetes, inklusive yderligere værktøjer (buildah og andre). Derfor vil jeg nærme mig valget af et værktøj til arbejde som følger: for små teams eller med et begrænset budget - Docker (med en mulig sværmtilstand), til at udvikle mig selv på en personlig lokal vært - Podman-kammerater og for alle andre - Kubernetes.

Jeg er ikke sikker på, at situationen med Docker ikke vil ændre sig i fremtiden, de er trods alt pionerer, og bliver også gradvist standardiseret trin for trin, men Podman, for alle dens mangler (virker kun på Linux, ingen klyngedannelse, montering og andre handlinger er tredjepartsløsninger) fremtiden er klarere, så jeg inviterer alle til at diskutere disse resultater i kommentarerne.

PS Den 3. august lancerer vi "Docker video kursushvor du kan lære mere om hans arbejde. Vi vil analysere alle dets værktøjer: fra grundlæggende abstraktioner til netværksparametre, nuancer af at arbejde med forskellige operativsystemer og programmeringssprog. Du vil blive fortrolig med teknologien og forstå, hvor og hvordan du bedst bruger Docker. Vi vil også dele best practice cases.

Forudbestillingspris før frigivelse: 5000 rubler. Programmet "Docker Video Course" kan findes på kursussiden.

Kilde: www.habr.com

Tilføj en kommentar