TL;DR: İcmal məqaləsi - konteynerlərdə tətbiqləri işə salmaq üçün mühitləri müqayisə etmək üçün bələdçi. Docker və digər oxşar sistemlərin imkanları nəzərdən keçiriləcək.
Hər şeyin haradan gəldiyinin bir az tarixi
Hekayə
Proqramı təcrid etməyin ilk məşhur yolu chrootdur. Eyni adlı sistem çağırışı kök qovluğun dəyişməsini təmin edir - beləliklə, onu çağıran proqrama girişi təmin edir, yalnız bu kataloqun daxilindəki fayllara daxil olur. Amma proqrama daxildə superuser hüquqları verilərsə, o, potensial olaraq chroot-dan “qaça” və əsas əməliyyat sisteminə çıxış əldə edə bilər. Həmçinin, kök qovluğunun dəyişdirilməsi ilə yanaşı, digər resurslar (RAM, prosessor), eləcə də şəbəkəyə çıxış məhdudlaşdırılmır.
Növbəti yol, əməliyyat sisteminin nüvəsinin mexanizmlərindən istifadə edərək, konteynerin içərisində tam hüquqlu əməliyyat sistemini işə salmaqdır. Bu üsul müxtəlif əməliyyat sistemlərində fərqli adlanır, lakin mahiyyət eynidir - hər biri əsas əməliyyat sistemini idarə edən eyni nüvədə işləyən bir neçə müstəqil əməliyyat sistemi ilə işləyir. Buraya FreeBSD Jails, Solaris Zones, OpenVZ və Linux üçün LXC daxildir. İzolyasiya yalnız disk sahəsi üçün deyil, həm də digər resurslar üçün təmin edilir, xüsusən də hər bir konteynerdə prosessor vaxtı, RAM, şəbəkə bant genişliyi ilə bağlı məhdudiyyətlər ola bilər. Chroot ilə müqayisədə konteyneri tərk etmək daha çətindir, çünki konteynerdəki super istifadəçinin yalnız konteynerin içərisinə çıxışı var, lakin konteynerin içərisindəki əməliyyat sistemini yeniləmək ehtiyacı və köhnə nüvədən istifadə səbəbindən. versiyaları (Linux üçün, daha az dərəcədə FreeBSD üçün uyğundur), nüvə izolyasiya sistemini “sındırmaq” və əsas əməliyyat sisteminə giriş əldə etmək ehtimalı sıfırdan fərqlidir.
Konteynerdə tam hüquqlu bir əməliyyat sistemini işə salmaq əvəzinə (insializasiya sistemi, paket meneceri və s.) Tətbiqləri dərhal işə salmaq olar, əsas odur ki, tətbiqləri bu fürsətlə təmin etmək (lazımi kitabxanaların olması və digər fayllar). Bu ideya ən görkəmli və tanınmış nümayəndəsi Docker olan konteynerləşdirilmiş tətbiqlərin virtuallaşdırılması üçün əsas olmuşdur. Əvvəlki sistemlərlə müqayisədə, daha çevik izolyasiya mexanizmləri, konteynerlər arasında virtual şəbəkələr üçün daxili dəstək və konteyner daxilində tətbiqin vəziyyəti ilə birlikdə, çox sayda fiziki serverdən konteynerləri işə salmaq üçün vahid vahid mühit yaratmaq imkanı ilə nəticələndi. resursların əl ilə idarə edilməsinə ehtiyac.
yükvuran
Docker ən məşhur proqram konteynerləşdirmə proqramıdır. Go dilində yazılmış, disk sahəsinə qənaət etmək üçün Linux nüvəsinin müntəzəm imkanlarından - qruplar, adlar, imkanlar və s., həmçinin Aufs fayl sistemlərindən və digər oxşar sistemlərdən istifadə edir.
Mənbə: wikimedia
memarlıq
1.11 versiyasından əvvəl Docker konteynerlərlə bütün əməliyyatları yerinə yetirən vahid xidmət kimi işləyirdi: konteynerlər üçün şəkillərin yüklənməsi, konteynerlərin işə salınması, API sorğularının işlənməsi. 1.11 versiyasından bəri Docker bir-biri ilə qarşılıqlı əlaqədə olan bir neçə hissəyə bölünmüşdür: konteyner, konteynerlərin bütün həyat dövrünü idarə etmək üçün (disk sahəsinin ayrılması, şəkillərin yüklənməsi, şəbəkənin qurulması, işə salınması, quraşdırılması və konteynerlərin vəziyyətinin monitorinqi) və runC , qrupların istifadəsinə və Linux nüvəsinin digər xüsusiyyətlərinə əsaslanan konteyner işləmə müddətləri. Docker xidmətinin özü qalır, lakin indi o, yalnız konteynerə yayımlanan API sorğularını emal etməyə xidmət edir.
Quraşdırma və konfiqurasiya
Docker-i quraşdırmaq üçün mənim sevimli üsulum docker-machine-dir ki, o, uzaq serverlərdə (o cümlədən müxtəlif buludlarda) docker-i birbaşa quraşdırmaq və konfiqurasiya etməklə yanaşı, uzaq serverlərin fayl sistemləri ilə işləməyə imkan verir və həmçinin müxtəlif əmrləri işlədə bilir.
Bununla belə, 2018-ci ildən bəri layihə çətin ki, işlənib hazırlanmayıb, ona görə də biz onu əksər Linux paylamaları üçün adi şəkildə - anbar əlavə edərək və lazımi paketləri quraşdırmaqla quraşdıracağıq.
Bu üsul, məsələn, Ansible və ya digər oxşar sistemlərdən istifadə etməklə avtomatlaşdırılmış quraşdırma üçün də istifadə olunur, lakin bu məqalədə bunu nəzərdən keçirməyəcəyəm.
Quraşdırma Centos 7-də həyata keçiriləcək, mən virtual maşından server kimi istifadə edəcəyəm, quraşdırmaq üçün aşağıdakı əmrləri yerinə yetirmək kifayətdir:
# yum install -y yum-utils
# yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo
# yum install docker-ce docker-ce-cli containerd.io
Quraşdırıldıqdan sonra xidməti işə salmalı, onu avtomatik yükləməyə qoymalısınız:
# systemctl enable docker
# systemctl start docker
# firewall-cmd --zone=public --add-port=2377/tcp --permanent
Bundan əlavə, siz docker qrupu yarada bilərsiniz, onun istifadəçiləri sudo olmadan docker ilə işləyə, giriş qura, kənardan API-yə girişi aktivləşdirə, firewall-u dəqiq tənzimləməyi unutmayın (icazə verilməyən hər şey yuxarıda və aşağıda göstərilən nümunələrdə qadağandır - sadəlik və vizuallaşdırma üçün bunu buraxdım), lakin burada daha ətraflı məlumat verməyəcəyəm.
Digər xüsusiyyətlər
Yuxarıda göstərilən doker maşınına əlavə olaraq, konteynerlər üçün şəkillərin saxlanması üçün bir vasitə, həmçinin docker tərtibi - konteynerlərdə tətbiqlərin yerləşdirilməsinin avtomatlaşdırılması üçün bir vasitə, YAML faylları konteynerlərin qurulması və konfiqurasiyası üçün istifadə olunur. digər əlaqəli şeylər (məsələn, şəbəkələr, məlumatların saxlanması üçün davamlı fayl sistemləri).
O, həmçinin CICD üçün boru kəmərlərini təşkil etmək üçün istifadə edilə bilər. Digər maraqlı xüsusiyyət, konteynerləri işə salmaq üçün bir neçə serverdən vahid infrastruktur yığmağa imkan verən klaster rejimində, sözdə sürü rejimi (1.12 versiyasından əvvəl bu, docker sürü kimi tanınırdı) işləməkdir. Bütün serverlərin üstündə virtual şəbəkəyə dəstək var, quraşdırılmış yük balanslaşdırıcısı, həmçinin konteynerlər üçün sirrlərə dəstək var.
Docker compose-dan olan YAML faylları kiçik dəyişikliklərlə belə klasterlər üçün istifadə oluna bilər, müxtəlif məqsədlər üçün kiçik və orta klasterlərin saxlanmasını tam avtomatlaşdırır. Böyük klasterlər üçün Kubernetes üstünlük təşkil edir, çünki sürü rejiminin saxlanması xərcləri Kubernetes-dən daha çox ola bilər. RunC-ə əlavə olaraq, konteynerlər üçün icra mühiti olaraq, məsələn, quraşdıra bilərsiniz
Docker ilə işləmək
Quraşdırma və konfiqurasiyadan sonra biz inkişaf qrupu üçün GitLab və Docker Registry-ni yerləşdirəcəyimiz klaster yaratmağa çalışacağıq. Serverlər olaraq, mən əlavə olaraq GlusterFS paylanmış FS-ni yerləşdirəcəyim üç virtual maşından istifadə edəcəyəm, ondan docker həcmlərinin saxlanması kimi istifadə edəcəyəm, məsələn, docker reyestrinin uğursuz versiyasını işə salmaq üçün. İşləmək üçün əsas komponentlər: Docker Registry, Postgresql, Redis, Swarm-ın üstündə GitLab Runner dəstəyi ilə GitLab. Postgresql klasterləşmə ilə işə salınacaq
GlusterFS-i bütün serverlərdə yerləşdirmək üçün (onlar node1, node2, node3 adlanır) paketləri quraşdırmalı, firewall-u işə salmalı, lazımi qovluqları yaratmalısınız:
# yum -y install centos-release-gluster7
# yum -y install glusterfs-server
# systemctl enable glusterd
# systemctl start glusterd
# firewall-cmd --add-service=glusterfs --permanent
# firewall-cmd --reload
# mkdir -p /srv/gluster
# mkdir -p /srv/docker
# echo "$(hostname):/docker /srv/docker glusterfs defaults,_netdev 0 0" >> /etc/fstab
Quraşdırıldıqdan sonra GlusterFS-nin konfiqurasiyası üzrə iş bir qovşaqdan davam etdirilməlidir, məsələn node1:
# gluster peer probe node2
# gluster peer probe node3
# gluster volume create docker replica 3 node1:/srv/gluster node2:/srv/gluster node3:/srv/gluster force
# gluster volume start docker
Sonra ortaya çıxan həcmi quraşdırmalısınız (əmr bütün serverlərdə işlədilməlidir):
# mount /srv/docker
Swarm rejimi Lider olacaq serverlərdən birində konfiqurasiya edilmişdir, qalanları klasterə qoşulmalı olacaqlar, buna görə də birinci serverdə əmrin işlədilməsinin nəticəsi qalan hissələrdə kopyalanmalı və icra edilməlidir.
İlkin klaster quraşdırması, mən node1-də əmri yerinə yetirirəm:
# docker swarm init
Swarm initialized: current node (a5jpfrh5uvo7svzz1ajduokyq) is now a manager.
To add a worker to this swarm, run the following command:
docker swarm join --token SWMTKN-1-0c5mf7mvzc7o7vjk0wngno2dy70xs95tovfxbv4tqt9280toku-863hyosdlzvd76trfptd4xnzd xx.xx.xx.xx:2377
To add a manager to this swarm, run 'docker swarm join-token manager' and follow the instructions.
# docker swarm join-token manager
İkinci əmrin nəticəsini kopyalayın, node2 və node3-də yerinə yetirin:
# docker swarm join --token SWMTKN-x-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx-xxxxxxxxx xx.xx.xx.xx:2377
This node joined a swarm as a manager.
Bu, serverlərin ilkin konfiqurasiyasını tamamlayır, xidmətlərin konfiqurasiyasına başlayaq, başqa cür göstərilmədiyi təqdirdə yerinə yetiriləcək əmrlər node1-dən işə salınacaq.
Əvvəlcə konteynerlər üçün şəbəkələr yaradaq:
# docker network create --driver=overlay etcd
# docker network create --driver=overlay pgsql
# docker network create --driver=overlay redis
# docker network create --driver=overlay traefik
# docker network create --driver=overlay gitlab
Sonra serverləri qeyd edirik, bəzi xidmətləri serverlərə bağlamaq üçün bu lazımdır:
# docker node update --label-add nodename=node1 node1
# docker node update --label-add nodename=node2 node2
# docker node update --label-add nodename=node3 node3
Sonra, Traefik və Stolona ehtiyac duyduğu və s. məlumatların, KV yaddaşının saxlanması üçün kataloqlar yaradırıq. Postgresql kimi, bunlar serverlərə bağlı konteynerlər olacaq, ona görə də biz bu əmri bütün serverlərdə yerinə yetiririk:
# mkdir -p /srv/etcd
Sonra, etcd-ni konfiqurasiya etmək üçün bir fayl yaradın və tətbiq edin:
00etcd.yml
version: '3.7'
services:
etcd1:
image: quay.io/coreos/etcd:latest
hostname: etcd1
command:
- etcd
- --name=etcd1
- --data-dir=/data.etcd
- --advertise-client-urls=http://etcd1:2379
- --listen-client-urls=http://0.0.0.0:2379
- --initial-advertise-peer-urls=http://etcd1:2380
- --listen-peer-urls=http://0.0.0.0:2380
- --initial-cluster=etcd1=http://etcd1:2380,etcd2=http://etcd2:2380,etcd3=http://etcd3:2380
- --initial-cluster-state=new
- --initial-cluster-token=etcd-cluster
networks:
- etcd
volumes:
- etcd1vol:/data.etcd
deploy:
replicas: 1
placement:
constraints: [node.labels.nodename == node1]
etcd2:
image: quay.io/coreos/etcd:latest
hostname: etcd2
command:
- etcd
- --name=etcd2
- --data-dir=/data.etcd
- --advertise-client-urls=http://etcd2:2379
- --listen-client-urls=http://0.0.0.0:2379
- --initial-advertise-peer-urls=http://etcd2:2380
- --listen-peer-urls=http://0.0.0.0:2380
- --initial-cluster=etcd1=http://etcd1:2380,etcd2=http://etcd2:2380,etcd3=http://etcd3:2380
- --initial-cluster-state=new
- --initial-cluster-token=etcd-cluster
networks:
- etcd
volumes:
- etcd2vol:/data.etcd
deploy:
replicas: 1
placement:
constraints: [node.labels.nodename == node2]
etcd3:
image: quay.io/coreos/etcd:latest
hostname: etcd3
command:
- etcd
- --name=etcd3
- --data-dir=/data.etcd
- --advertise-client-urls=http://etcd3:2379
- --listen-client-urls=http://0.0.0.0:2379
- --initial-advertise-peer-urls=http://etcd3:2380
- --listen-peer-urls=http://0.0.0.0:2380
- --initial-cluster=etcd1=http://etcd1:2380,etcd2=http://etcd2:2380,etcd3=http://etcd3:2380
- --initial-cluster-state=new
- --initial-cluster-token=etcd-cluster
networks:
- etcd
volumes:
- etcd3vol:/data.etcd
deploy:
replicas: 1
placement:
constraints: [node.labels.nodename == node3]
volumes:
etcd1vol:
driver: local
driver_opts:
type: none
o: bind
device: "/srv/etcd"
etcd2vol:
driver: local
driver_opts:
type: none
o: bind
device: "/srv/etcd"
etcd3vol:
driver: local
driver_opts:
type: none
o: bind
device: "/srv/etcd"
networks:
etcd:
external: true
# docker stack deploy --compose-file 00etcd.yml etcd
Bir müddət sonra etcd klasterinin yüksəldiyini yoxlayırıq:
# docker exec $(docker ps | awk '/etcd/ {print $1}') etcdctl member list
ade526d28b1f92f7: name=etcd1 peerURLs=http://etcd1:2380 clientURLs=http://etcd1:2379 isLeader=false
bd388e7810915853: name=etcd3 peerURLs=http://etcd3:2380 clientURLs=http://etcd3:2379 isLeader=false
d282ac2ce600c1ce: name=etcd2 peerURLs=http://etcd2:2380 clientURLs=http://etcd2:2379 isLeader=true
# docker exec $(docker ps | awk '/etcd/ {print $1}') etcdctl cluster-health
member ade526d28b1f92f7 is healthy: got healthy result from http://etcd1:2379
member bd388e7810915853 is healthy: got healthy result from http://etcd3:2379
member d282ac2ce600c1ce is healthy: got healthy result from http://etcd2:2379
cluster is healthy
Postgresql üçün kataloqlar yaradın, bütün serverlərdə əmri yerinə yetirin:
# mkdir -p /srv/pgsql
Sonra Postgresql-i konfiqurasiya etmək üçün fayl yaradın:
01pgsql.yml
version: '3.7'
services:
pgsentinel:
image: sorintlab/stolon:master-pg10
command:
- gosu
- stolon
- stolon-sentinel
- --cluster-name=stolon-cluster
- --store-backend=etcdv3
- --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
- --log-level=debug
networks:
- etcd
- pgsql
deploy:
replicas: 3
update_config:
parallelism: 1
delay: 30s
order: stop-first
failure_action: pause
pgkeeper1:
image: sorintlab/stolon:master-pg10
hostname: pgkeeper1
command:
- gosu
- stolon
- stolon-keeper
- --pg-listen-address=pgkeeper1
- --pg-repl-username=replica
- --uid=pgkeeper1
- --pg-su-username=postgres
- --pg-su-passwordfile=/run/secrets/pgsql
- --pg-repl-passwordfile=/run/secrets/pgsql_repl
- --data-dir=/var/lib/postgresql/data
- --cluster-name=stolon-cluster
- --store-backend=etcdv3
- --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
networks:
- etcd
- pgsql
environment:
- PGDATA=/var/lib/postgresql/data
volumes:
- pgkeeper1:/var/lib/postgresql/data
secrets:
- pgsql
- pgsql_repl
deploy:
replicas: 1
placement:
constraints: [node.labels.nodename == node1]
pgkeeper2:
image: sorintlab/stolon:master-pg10
hostname: pgkeeper2
command:
- gosu
- stolon
- stolon-keeper
- --pg-listen-address=pgkeeper2
- --pg-repl-username=replica
- --uid=pgkeeper2
- --pg-su-username=postgres
- --pg-su-passwordfile=/run/secrets/pgsql
- --pg-repl-passwordfile=/run/secrets/pgsql_repl
- --data-dir=/var/lib/postgresql/data
- --cluster-name=stolon-cluster
- --store-backend=etcdv3
- --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
networks:
- etcd
- pgsql
environment:
- PGDATA=/var/lib/postgresql/data
volumes:
- pgkeeper2:/var/lib/postgresql/data
secrets:
- pgsql
- pgsql_repl
deploy:
replicas: 1
placement:
constraints: [node.labels.nodename == node2]
pgkeeper3:
image: sorintlab/stolon:master-pg10
hostname: pgkeeper3
command:
- gosu
- stolon
- stolon-keeper
- --pg-listen-address=pgkeeper3
- --pg-repl-username=replica
- --uid=pgkeeper3
- --pg-su-username=postgres
- --pg-su-passwordfile=/run/secrets/pgsql
- --pg-repl-passwordfile=/run/secrets/pgsql_repl
- --data-dir=/var/lib/postgresql/data
- --cluster-name=stolon-cluster
- --store-backend=etcdv3
- --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
networks:
- etcd
- pgsql
environment:
- PGDATA=/var/lib/postgresql/data
volumes:
- pgkeeper3:/var/lib/postgresql/data
secrets:
- pgsql
- pgsql_repl
deploy:
replicas: 1
placement:
constraints: [node.labels.nodename == node3]
postgresql:
image: sorintlab/stolon:master-pg10
command: gosu stolon stolon-proxy --listen-address 0.0.0.0 --cluster-name stolon-cluster --store-backend=etcdv3 --store-endpoints http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
networks:
- etcd
- pgsql
deploy:
replicas: 3
update_config:
parallelism: 1
delay: 30s
order: stop-first
failure_action: rollback
volumes:
pgkeeper1:
driver: local
driver_opts:
type: none
o: bind
device: "/srv/pgsql"
pgkeeper2:
driver: local
driver_opts:
type: none
o: bind
device: "/srv/pgsql"
pgkeeper3:
driver: local
driver_opts:
type: none
o: bind
device: "/srv/pgsql"
secrets:
pgsql:
file: "/srv/docker/postgres"
pgsql_repl:
file: "/srv/docker/replica"
networks:
etcd:
external: true
pgsql:
external: true
Biz sirləri yaradırıq, faylı tətbiq edirik:
# </dev/urandom tr -dc 234567890qwertyuopasdfghjkzxcvbnmQWERTYUPASDFGHKLZXCVBNM | head -c $(((RANDOM%3)+15)) > /srv/docker/replica
# </dev/urandom tr -dc 234567890qwertyuopasdfghjkzxcvbnmQWERTYUPASDFGHKLZXCVBNM | head -c $(((RANDOM%3)+15)) > /srv/docker/postgres
# docker stack deploy --compose-file 01pgsql.yml pgsql
Bir müddət sonra (komandanın çıxışına baxın docker xidməti lsbütün xidmətlər yüksəldi) Postgresql klasterini işə salın:
# docker exec $(docker ps | awk '/pgkeeper/ {print $1}') stolonctl --cluster-name=stolon-cluster --store-backend=etcdv3 --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379 init
Postgresql klasterinin hazırlığının yoxlanılması:
# docker exec $(docker ps | awk '/pgkeeper/ {print $1}') stolonctl --cluster-name=stolon-cluster --store-backend=etcdv3 --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379 status
=== Active sentinels ===
ID LEADER
26baa11d false
74e98768 false
a8cb002b true
=== Active proxies ===
ID
4d233826
9f562f3b
b0c79ff1
=== Keepers ===
UID HEALTHY PG LISTENADDRESS PG HEALTHY PG WANTEDGENERATION PG CURRENTGENERATION
pgkeeper1 true pgkeeper1:5432 true 2 2
pgkeeper2 true pgkeeper2:5432 true 2 2
pgkeeper3 true pgkeeper3:5432 true 3 3
=== Cluster Info ===
Master Keeper: pgkeeper3
===== Keepers/DB tree =====
pgkeeper3 (master)
├─pgkeeper2
└─pgkeeper1
Biz traefik-i xaricdən konteynerlərə girişi açmaq üçün konfiqurasiya edirik:
03traefik.yml
version: '3.7'
services:
traefik:
image: traefik:latest
command: >
--log.level=INFO
--providers.docker=true
--entryPoints.web.address=:80
--providers.providersThrottleDuration=2
--providers.docker.watch=true
--providers.docker.swarmMode=true
--providers.docker.swarmModeRefreshSeconds=15s
--providers.docker.exposedbydefault=false
--accessLog.bufferingSize=0
--api=true
--api.dashboard=true
--api.insecure=true
networks:
- traefik
ports:
- 80:80
volumes:
- /var/run/docker.sock:/var/run/docker.sock
deploy:
replicas: 3
placement:
constraints:
- node.role == manager
preferences:
- spread: node.id
labels:
- traefik.enable=true
- traefik.http.routers.traefik.rule=Host(`traefik.example.com`)
- traefik.http.services.traefik.loadbalancer.server.port=8080
- traefik.docker.network=traefik
networks:
traefik:
external: true
# docker stack deploy --compose-file 03traefik.yml traefik
Redis Cluster-i işə salırıq, bunun üçün bütün qovşaqlarda saxlama kataloqu yaradırıq:
# mkdir -p /srv/redis
05redis.yml
version: '3.7'
services:
redis-master:
image: 'bitnami/redis:latest'
networks:
- redis
ports:
- '6379:6379'
environment:
- REDIS_REPLICATION_MODE=master
- REDIS_PASSWORD=xxxxxxxxxxx
deploy:
mode: global
restart_policy:
condition: any
volumes:
- 'redis:/opt/bitnami/redis/etc/'
redis-replica:
image: 'bitnami/redis:latest'
networks:
- redis
ports:
- '6379'
depends_on:
- redis-master
environment:
- REDIS_REPLICATION_MODE=slave
- REDIS_MASTER_HOST=redis-master
- REDIS_MASTER_PORT_NUMBER=6379
- REDIS_MASTER_PASSWORD=xxxxxxxxxxx
- REDIS_PASSWORD=xxxxxxxxxxx
deploy:
mode: replicated
replicas: 3
update_config:
parallelism: 1
delay: 10s
restart_policy:
condition: any
redis-sentinel:
image: 'bitnami/redis:latest'
networks:
- redis
ports:
- '16379'
depends_on:
- redis-master
- redis-replica
entrypoint: |
bash -c 'bash -s <<EOF
"/bin/bash" -c "cat <<EOF > /opt/bitnami/redis/etc/sentinel.conf
port 16379
dir /tmp
sentinel monitor master-node redis-master 6379 2
sentinel down-after-milliseconds master-node 5000
sentinel parallel-syncs master-node 1
sentinel failover-timeout master-node 5000
sentinel auth-pass master-node xxxxxxxxxxx
sentinel announce-ip redis-sentinel
sentinel announce-port 16379
EOF"
"/bin/bash" -c "redis-sentinel /opt/bitnami/redis/etc/sentinel.conf"
EOF'
deploy:
mode: global
restart_policy:
condition: any
volumes:
redis:
driver: local
driver_opts:
type: 'none'
o: 'bind'
device: "/srv/redis"
networks:
redis:
external: true
# docker stack deploy --compose-file 05redis.yml redis
Docker Registry əlavə edin:
06registry.yml
version: '3.7'
services:
registry:
image: registry:2.6
networks:
- traefik
volumes:
- registry_data:/var/lib/registry
deploy:
replicas: 1
placement:
constraints: [node.role == manager]
restart_policy:
condition: on-failure
labels:
- traefik.enable=true
- traefik.http.routers.registry.rule=Host(`registry.example.com`)
- traefik.http.services.registry.loadbalancer.server.port=5000
- traefik.docker.network=traefik
volumes:
registry_data:
driver: local
driver_opts:
type: none
o: bind
device: "/srv/docker/registry"
networks:
traefik:
external: true
# mkdir /srv/docker/registry
# docker stack deploy --compose-file 06registry.yml registry
Və nəhayət - GitLab:
08gitlab-runner.yml
version: '3.7'
services:
gitlab:
image: gitlab/gitlab-ce:latest
networks:
- pgsql
- redis
- traefik
- gitlab
ports:
- 22222:22
environment:
GITLAB_OMNIBUS_CONFIG: |
postgresql['enable'] = false
redis['enable'] = false
gitlab_rails['registry_enabled'] = false
gitlab_rails['db_username'] = "gitlab"
gitlab_rails['db_password'] = "XXXXXXXXXXX"
gitlab_rails['db_host'] = "postgresql"
gitlab_rails['db_port'] = "5432"
gitlab_rails['db_database'] = "gitlab"
gitlab_rails['db_adapter'] = 'postgresql'
gitlab_rails['db_encoding'] = 'utf8'
gitlab_rails['redis_host'] = 'redis-master'
gitlab_rails['redis_port'] = '6379'
gitlab_rails['redis_password'] = 'xxxxxxxxxxx'
gitlab_rails['smtp_enable'] = true
gitlab_rails['smtp_address'] = "smtp.yandex.ru"
gitlab_rails['smtp_port'] = 465
gitlab_rails['smtp_user_name'] = "[email protected]"
gitlab_rails['smtp_password'] = "xxxxxxxxx"
gitlab_rails['smtp_domain'] = "example.com"
gitlab_rails['gitlab_email_from'] = '[email protected]'
gitlab_rails['smtp_authentication'] = "login"
gitlab_rails['smtp_tls'] = true
gitlab_rails['smtp_enable_starttls_auto'] = true
gitlab_rails['smtp_openssl_verify_mode'] = 'peer'
external_url 'http://gitlab.example.com/'
gitlab_rails['gitlab_shell_ssh_port'] = 22222
volumes:
- gitlab_conf:/etc/gitlab
- gitlab_logs:/var/log/gitlab
- gitlab_data:/var/opt/gitlab
deploy:
mode: replicated
replicas: 1
placement:
constraints:
- node.role == manager
labels:
- traefik.enable=true
- traefik.http.routers.gitlab.rule=Host(`gitlab.example.com`)
- traefik.http.services.gitlab.loadbalancer.server.port=80
- traefik.docker.network=traefik
gitlab-runner:
image: gitlab/gitlab-runner:latest
networks:
- gitlab
volumes:
- gitlab_runner_conf:/etc/gitlab
- /var/run/docker.sock:/var/run/docker.sock
deploy:
mode: replicated
replicas: 1
placement:
constraints:
- node.role == manager
volumes:
gitlab_conf:
driver: local
driver_opts:
type: none
o: bind
device: "/srv/docker/gitlab/conf"
gitlab_logs:
driver: local
driver_opts:
type: none
o: bind
device: "/srv/docker/gitlab/logs"
gitlab_data:
driver: local
driver_opts:
type: none
o: bind
device: "/srv/docker/gitlab/data"
gitlab_runner_conf:
driver: local
driver_opts:
type: none
o: bind
device: "/srv/docker/gitlab/runner"
networks:
pgsql:
external: true
redis:
external: true
traefik:
external: true
gitlab:
external: true
# mkdir -p /srv/docker/gitlab/conf
# mkdir -p /srv/docker/gitlab/logs
# mkdir -p /srv/docker/gitlab/data
# mkdir -p /srv/docker/gitlab/runner
# docker stack deploy --compose-file 08gitlab-runner.yml gitlab
Klasterin və xidmətlərin yekun vəziyyəti:
# docker service ls
ID NAME MODE REPLICAS IMAGE PORTS
lef9n3m92buq etcd_etcd1 replicated 1/1 quay.io/coreos/etcd:latest
ij6uyyo792x5 etcd_etcd2 replicated 1/1 quay.io/coreos/etcd:latest
fqttqpjgp6pp etcd_etcd3 replicated 1/1 quay.io/coreos/etcd:latest
hq5iyga28w33 gitlab_gitlab replicated 1/1 gitlab/gitlab-ce:latest *:22222->22/tcp
dt7s6vs0q4qc gitlab_gitlab-runner replicated 1/1 gitlab/gitlab-runner:latest
k7uoezno0h9n pgsql_pgkeeper1 replicated 1/1 sorintlab/stolon:master-pg10
cnrwul4r4nse pgsql_pgkeeper2 replicated 1/1 sorintlab/stolon:master-pg10
frflfnpty7tr pgsql_pgkeeper3 replicated 1/1 sorintlab/stolon:master-pg10
x7pqqchi52kq pgsql_pgsentinel replicated 3/3 sorintlab/stolon:master-pg10
mwu2wl8fti4r pgsql_postgresql replicated 3/3 sorintlab/stolon:master-pg10
9hkbe2vksbzb redis_redis-master global 3/3 bitnami/redis:latest *:6379->6379/tcp
l88zn8cla7dc redis_redis-replica replicated 3/3 bitnami/redis:latest *:30003->6379/tcp
1utp309xfmsy redis_redis-sentinel global 3/3 bitnami/redis:latest *:30002->16379/tcp
oteb824ylhyp registry_registry replicated 1/1 registry:2.6
qovrah8nzzu8 traefik_traefik replicated 3/3 traefik:latest *:80->80/tcp, *:443->443/tcp
Başqa nə yaxşılaşdırıla bilər? Traefik-i https konteynerləri ilə işləmək üçün konfiqurasiya etdiyinizə əmin olun, Postgresql və Redis üçün tls şifrələməsi əlavə edin. Ancaq ümumiyyətlə, onu artıq PoC kimi tərtibatçılara verə bilərsiniz. İndi Docker-ə alternativlərə baxaq.
podman
Podlara görə qruplaşdırılmış konteynerləri işə salmaq üçün kifayət qədər tanınmış başqa bir mühərrik (qruplar, bir yerdə yerləşdirilən qablar qrupları). Docker-dən fərqli olaraq, konteynerləri işə salmaq üçün heç bir xidmət tələb etmir, bütün işlər libpod kitabxanası vasitəsilə həyata keçirilir. Həmçinin Go-da yazılmışdır, runC kimi konteynerləri işə salmaq üçün OCI-yə uyğun işləmə vaxtı lazımdır.
Podman ilə işləmək, ümumiyyətlə, Docker-ə bənzəyir, o dərəcədə ki, bunu edə bilərsiniz (bu məqalənin müəllifi də daxil olmaqla, bunu sınayanların çoxu iddia edir):
$ alias docker=podman
və işləməyə davam edə bilərsiniz. Ümumiyyətlə, Podmanla bağlı vəziyyət çox maraqlıdır, çünki Kubernetes-in ilk versiyaları Docker ilə işləyirdisə, təxminən 2015-ci ildən, konteyner dünyasını standartlaşdırdıqdan sonra (OCI - Açıq Konteyner Təşəbbüsü) və Docker-i konteynerə və runC-yə böldükdən sonra alternativ olaraq. Docker Kubernetes-də işləmək üçün hazırlanır: CRI-O. Bu baxımdan Podman, Kubernetes prinsipləri əsasında qurulmuş Docker-ə alternativdir, o cümlədən konteyner qruplaşdırılması, lakin layihənin əsas məqsədi Docker tipli konteynerləri əlavə xidmətlər olmadan idarə etməkdir. Aydın səbəblərə görə, sürü rejimi yoxdur, çünki tərtibatçılar açıq şəkildə deyirlər ki, bir klasterə ehtiyacınız varsa, Kubernetes-i götürün.
Quraşdırma
Centos 7-də quraşdırmaq üçün sadəcə Əlavələr deposunu aktivləşdirin və sonra hər şeyi əmrlə quraşdırın:
# yum -y install podman
Digər xüsusiyyətlər
Podman systemd üçün vahidlər yarada bilər, beləliklə serverin yenidən işə salınmasından sonra konteynerlərin işə salınması problemini həll edir. Bundan əlavə, systemd konteynerdə pid 1 olaraq düzgün işlədiyi elan edilir. Konteynerlər qurmaq üçün ayrıca bir qurma aləti var, üçüncü tərəf alətləri də var - docker-compose analoqları, bu da Kubernetes-ə uyğun konfiqurasiya fayllarını yaradır, buna görə də Podman-dan Kubernetes-ə keçid mümkün qədər sadədir.
Podman ilə işləyir
Sürü rejimi olmadığı üçün (klasterə ehtiyac olarsa, Kubernetesə keçməlidir), biz onu ayrı qablarda yığacağıq.
Podman-compose quraşdırın:
# yum -y install python3-pip
# pip3 install podman-compose
Podman üçün ortaya çıxan konfiqurasiya faylı bir qədər fərqlidir, məsələn, ayrıca həcmlər bölməsini birbaşa xidmətlər bölməsinə köçürməli olduq.
gitlab-podman.yml
version: '3.7'
services:
gitlab:
image: gitlab/gitlab-ce:latest
hostname: gitlab.example.com
restart: unless-stopped
environment:
GITLAB_OMNIBUS_CONFIG: |
gitlab_rails['gitlab_shell_ssh_port'] = 22222
ports:
- "80:80"
- "22222:22"
volumes:
- /srv/podman/gitlab/conf:/etc/gitlab
- /srv/podman/gitlab/data:/var/opt/gitlab
- /srv/podman/gitlab/logs:/var/log/gitlab
networks:
- gitlab
gitlab-runner:
image: gitlab/gitlab-runner:alpine
restart: unless-stopped
depends_on:
- gitlab
volumes:
- /srv/podman/gitlab/runner:/etc/gitlab-runner
- /var/run/docker.sock:/var/run/docker.sock
networks:
- gitlab
networks:
gitlab:
# podman-compose -f gitlab-runner.yml -d up
İşin nəticəsi:
# podman ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
da53da946c01 docker.io/gitlab/gitlab-runner:alpine run --user=gitlab... About a minute ago Up About a minute ago 0.0.0.0:22222->22/tcp, 0.0.0.0:80->80/tcp root_gitlab-runner_1
781c0103c94a docker.io/gitlab/gitlab-ce:latest /assets/wrapper About a minute ago Up About a minute ago 0.0.0.0:22222->22/tcp, 0.0.0.0:80->80/tcp root_gitlab_1
Görək sistemd və kubernetlər üçün nə yaradacaq, bunun üçün podun adını və ya id-sini öyrənməliyik:
# podman pod ls
POD ID NAME STATUS CREATED # OF CONTAINERS INFRA ID
71fc2b2a5c63 root Running 11 minutes ago 3 db40ab8bf84b
Kubernetes:
# podman generate kube 71fc2b2a5c63
# Generation of Kubernetes YAML is still under development!
#
# Save the output of this file and use kubectl create -f to import
# it into Kubernetes.
#
# Created with podman-1.6.4
apiVersion: v1
kind: Pod
metadata:
creationTimestamp: "2020-07-29T19:22:40Z"
labels:
app: root
name: root
spec:
containers:
- command:
- /assets/wrapper
env:
- name: PATH
value: /opt/gitlab/embedded/bin:/opt/gitlab/bin:/assets:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin
- name: TERM
value: xterm
- name: HOSTNAME
value: gitlab.example.com
- name: container
value: podman
- name: GITLAB_OMNIBUS_CONFIG
value: |
gitlab_rails['gitlab_shell_ssh_port'] = 22222
- name: LANG
value: C.UTF-8
image: docker.io/gitlab/gitlab-ce:latest
name: rootgitlab1
ports:
- containerPort: 22
hostPort: 22222
protocol: TCP
- containerPort: 80
hostPort: 80
protocol: TCP
resources: {}
securityContext:
allowPrivilegeEscalation: true
capabilities: {}
privileged: false
readOnlyRootFilesystem: false
volumeMounts:
- mountPath: /var/opt/gitlab
name: srv-podman-gitlab-data
- mountPath: /var/log/gitlab
name: srv-podman-gitlab-logs
- mountPath: /etc/gitlab
name: srv-podman-gitlab-conf
workingDir: /
- command:
- run
- --user=gitlab-runner
- --working-directory=/home/gitlab-runner
env:
- name: PATH
value: /usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin
- name: TERM
value: xterm
- name: HOSTNAME
- name: container
value: podman
image: docker.io/gitlab/gitlab-runner:alpine
name: rootgitlab-runner1
resources: {}
securityContext:
allowPrivilegeEscalation: true
capabilities: {}
privileged: false
readOnlyRootFilesystem: false
volumeMounts:
- mountPath: /etc/gitlab-runner
name: srv-podman-gitlab-runner
- mountPath: /var/run/docker.sock
name: var-run-docker.sock
workingDir: /
volumes:
- hostPath:
path: /srv/podman/gitlab/runner
type: Directory
name: srv-podman-gitlab-runner
- hostPath:
path: /var/run/docker.sock
type: File
name: var-run-docker.sock
- hostPath:
path: /srv/podman/gitlab/data
type: Directory
name: srv-podman-gitlab-data
- hostPath:
path: /srv/podman/gitlab/logs
type: Directory
name: srv-podman-gitlab-logs
- hostPath:
path: /srv/podman/gitlab/conf
type: Directory
name: srv-podman-gitlab-conf
status: {}
sistemd:
# podman generate systemd 71fc2b2a5c63
# pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
# autogenerated by Podman 1.6.4
# Thu Jul 29 15:23:28 EDT 2020
[Unit]
Description=Podman pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
Documentation=man:podman-generate-systemd(1)
Requires=container-781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3.service container-da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864.service
Before=container-781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3.service container-da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864.service
[Service]
Restart=on-failure
ExecStart=/usr/bin/podman start db40ab8bf84bf35141159c26cb6e256b889c7a98c0418eee3c4aa683c14fccaa
ExecStop=/usr/bin/podman stop -t 10 db40ab8bf84bf35141159c26cb6e256b889c7a98c0418eee3c4aa683c14fccaa
KillMode=none
Type=forking
PIDFile=/var/run/containers/storage/overlay-containers/db40ab8bf84bf35141159c26cb6e256b889c7a98c0418eee3c4aa683c14fccaa/userdata/conmon.pid
[Install]
WantedBy=multi-user.target
# container-da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864.service
# autogenerated by Podman 1.6.4
# Thu Jul 29 15:23:28 EDT 2020
[Unit]
Description=Podman container-da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864.service
Documentation=man:podman-generate-systemd(1)
RefuseManualStart=yes
RefuseManualStop=yes
BindsTo=pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
After=pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
[Service]
Restart=on-failure
ExecStart=/usr/bin/podman start da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864
ExecStop=/usr/bin/podman stop -t 10 da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864
KillMode=none
Type=forking
PIDFile=/var/run/containers/storage/overlay-containers/da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864/userdata/conmon.pid
[Install]
WantedBy=multi-user.target
# container-781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3.service
# autogenerated by Podman 1.6.4
# Thu Jul 29 15:23:28 EDT 2020
[Unit]
Description=Podman container-781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3.service
Documentation=man:podman-generate-systemd(1)
RefuseManualStart=yes
RefuseManualStop=yes
BindsTo=pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
After=pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
[Service]
Restart=on-failure
ExecStart=/usr/bin/podman start 781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3
ExecStop=/usr/bin/podman stop -t 10 781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3
KillMode=none
Type=forking
PIDFile=/var/run/containers/storage/overlay-containers/781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3/userdata/conmon.pid
[Install]
WantedBy=multi-user.target
Təəssüf ki, işləyən konteynerlərdən başqa, systemd üçün yaradılan vahid başqa heç nə etmir (məsələn, belə bir xidmət yenidən işə salındıqda köhnə konteynerləri təmizləmək), ona görə də belə şeyləri özünüz əlavə etməli olacaqsınız.
Prinsipcə, Podman konteynerlərin nə olduğunu sınamaq, docker-compose üçün köhnə konfiqurasiyaları köçürmək və sonra lazım olduqda bir klasterdə Kubernetesə getmək və ya Docker-ə istifadəsi asan alternativ əldə etmək üçün kifayətdir.
rt
Layihə
Flaş
Daha
Tapıntılar
Kubernetes ilə bağlı vəziyyət çox maraqlıdır: bir tərəfdən Docker ilə siz klaster yığa bilərsiniz (sürü rejimində), onunla hətta müştərilər üçün istehsal mühitlərini işlədə bilərsiniz, bu xüsusilə kiçik komandalar (3-5 nəfər) üçün doğrudur. ) və ya kiçik bir ümumi yüklə və ya Kubernetes-in qurulmasının incəliklərini başa düşmək istəyinin olmaması, o cümlədən yüksək yüklər üçün.
Podman tam uyğunluğu təmin etmir, lakin onun bir mühüm üstünlüyü var - əlavə alətlər (buildah və başqaları) daxil olmaqla Kubernetes ilə uyğunluq. Buna görə də, iş üçün alət seçiminə aşağıdakı kimi yanaşacağam: kiçik komandalar üçün və ya məhdud büdcə ilə - Docker (mümkün sürü rejimi ilə), şəxsi localhost-da özüm üçün inkişaf etdirmək üçün - Podman yoldaşlar və hər kəs üçün. - Kubernetes.
Docker ilə vəziyyətin gələcəkdə dəyişməyəcəyinə əmin deyiləm, axı onlar qabaqcıldırlar, həm də yavaş-yavaş addım-addım standartlaşırlar, lakin Podman, bütün çatışmazlıqları ilə (yalnız Linux-da işləyir, klasterləşmə yoxdur) , toplantı və digər hərəkətlər üçüncü tərəfin qərarlarıdır) gələcək daha aydındır, ona görə də hər kəsi şərhlərdə bu tapıntıları müzakirə etməyə dəvət edirəm.
PS Avqustun 3-də başlayırıq "
Buraxılışdan əvvəl ilkin sifariş qiyməti: 5000 r. "Docker Video Course" proqramını tapa bilərsiniz
Mənbə: www.habr.com