داکر و همه، همه، همه

TL;DR: راهنمای اجمالی برای مقایسه چارچوب ها برای اجرای برنامه ها در کانتینرها. قابلیت های Docker و سایر سیستم های مشابه در نظر گرفته خواهد شد.

داکر و همه، همه، همه

کمی تاریخچه از کجا آمده است

داستان

اولین روش شناخته شده برای جداسازی یک برنامه، chroot است. فراخوانی سیستمی با همین نام تضمین می کند که دایرکتوری ریشه تغییر کرده است - بنابراین اطمینان حاصل می شود که برنامه ای که آن را فراخوانی کرده است فقط به فایل های داخل آن دایرکتوری دسترسی دارد. اما اگر به یک برنامه به صورت داخلی امتیازات root داده شود، به طور بالقوه می تواند از chroot فرار کند و به سیستم عامل اصلی دسترسی پیدا کند. همچنین، علاوه بر تغییر دایرکتوری ریشه، سایر منابع (رم، پردازنده) و همچنین دسترسی به شبکه نیز محدودیتی ندارند.

روش بعدی راه اندازی یک سیستم عامل کامل در داخل یک کانتینر با استفاده از مکانیسم های هسته سیستم عامل است. این روش در سیستم عامل های مختلف به طور متفاوتی نامیده می شود، اما ماهیت یکسان است - راه اندازی چندین سیستم عامل مستقل، که هر یک از آنها همان هسته ای را اجرا می کند که سیستم عامل اصلی روی آن اجرا می شود. اینها عبارتند از FreeBSD Jails، Solaris Zones، OpenVZ و LXC برای لینوکس. جداسازی نه تنها توسط فضای دیسک، بلکه توسط منابع دیگر نیز تضمین می شود؛ به ویژه، هر ظرف ممکن است محدودیت هایی در زمان پردازنده، RAM و پهنای باند شبکه داشته باشد. در مقایسه با chroot، خروج از کانتینر دشوارتر است، زیرا کاربر فوق کاربر در ظرف تنها به محتویات کانتینر دسترسی دارد، اما به دلیل نیاز به به روز نگه داشتن سیستم عامل داخل کانتینر و استفاده از نسخه های قدیمی تر. از هسته‌ها (مرتبط با لینوکس، تا حدی FreeBSD)، احتمال "شکستن" سیستم جداسازی هسته و دسترسی به سیستم عامل اصلی غیر صفر است.

به جای راه اندازی یک سیستم عامل کامل در یک کانتینر (با سیستم مقداردهی اولیه، مدیر بسته و غیره)، می توانید بلافاصله برنامه ها را راه اندازی کنید، نکته اصلی این است که چنین فرصتی را برای برنامه ها فراهم کنید (وجود کتابخانه های لازم). و فایل های دیگر). این ایده به عنوان پایه ای برای مجازی سازی برنامه های کانتینری عمل کرد که برجسته ترین و شناخته شده ترین نماینده آن Docker است. در مقایسه با سیستم‌های قبلی، مکانیسم‌های جداسازی انعطاف‌پذیرتر، همراه با پشتیبانی داخلی از شبکه‌های مجازی بین کانتینرها و ردیابی وضعیت برنامه در داخل کانتینر، منجر به ایجاد یک محیط منسجم واحد از تعداد زیادی سرور فیزیکی برای اجرای کانتینرها شد. بدون نیاز به مدیریت منابع دستی

کارگر بارانداز

Docker معروف ترین نرم افزار کانتینری سازی اپلیکیشن است. این برنامه که به زبان Go نوشته شده است، از ویژگی های استاندارد هسته لینوکس - cgroups، فضاهای نام، قابلیت ها و غیره، و همچنین سیستم های فایل Aufs و موارد دیگر برای صرفه جویی در فضای دیسک استفاده می کند.

داکر و همه، همه، همه
منبع: ویکی مدیا

معماری

قبل از نسخه 1.11، داکر به عنوان یک سرویس واحد کار می کرد که همه عملیات را با کانتینرها انجام می داد: دانلود تصاویر برای کانتینرها، راه اندازی کانتینرها، پردازش درخواست های API. با شروع نسخه 1.11، Docker به چندین بخش تقسیم شد که با یکدیگر تعامل دارند: کانتینر، برای پردازش کل چرخه زندگی کانتینرها (تخصیص فضای دیسک، دانلود تصاویر، کار با شبکه، راه اندازی، نصب و نظارت بر وضعیت کانتینرها) و runC، محیط اجرای کانتینر، بر اساس استفاده از cgroup ها و سایر ویژگی های هسته لینوکس. خود سرویس docker باقی می ماند، اما اکنون فقط برای پردازش درخواست های API ترجمه شده به کانتینر خدمت می کند.

داکر و همه، همه، همه

نصب و پیکربندی

روش مورد علاقه من برای نصب docker، docker-machine است که علاوه بر نصب و پیکربندی مستقیم داکر بر روی سرورهای راه دور (از جمله ابرهای مختلف)، کار با فایل سیستم سرورهای راه دور را امکان پذیر می کند و می تواند دستورات مختلفی را نیز اجرا کند.

با این حال، از سال 2018، این پروژه به سختی توسعه یافته است، بنابراین ما آن را به روش استاندارد برای اکثر توزیع های لینوکس نصب می کنیم - اضافه کردن یک مخزن و نصب بسته های لازم.

این روش برای نصب خودکار نیز استفاده می شود، به عنوان مثال با استفاده از Ansible یا سایر سیستم های مشابه، اما در این مقاله آن را در نظر نخواهم گرفت.

نصب بر روی Centos 7 انجام می شود، من از یک ماشین مجازی به عنوان سرور استفاده می کنم، برای نصب فقط دستورات زیر را اجرا کنید:

# yum install -y yum-utils
# yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo
# yum install docker-ce docker-ce-cli containerd.io

پس از نصب، باید سرویس را راه اندازی کنید و آن را در راه اندازی قرار دهید:

# systemctl enable docker
# systemctl start docker
# firewall-cmd --zone=public --add-port=2377/tcp --permanent

علاوه بر این، می‌توانید یک گروه docker ایجاد کنید که کاربران آن می‌توانند بدون sudo با docker کار کنند، ورود به سیستم را راه‌اندازی کنند، دسترسی به API را از خارج فعال کنند، و فراموش نکنید که فایروال را با دقت بیشتری پیکربندی کنید (هر چیزی که مجاز نیست. در مثال های بالا و پایین ممنوع است - من برای سادگی و وضوح این را حذف کردم)، اما در اینجا به جزئیات بیشتر نمی پردازم.

ویژگی های دیگر

علاوه بر دستگاه داکر فوق، رجیستری docker، ابزاری برای ذخیره تصاویر برای کانتینرها، همچنین docker compose، ابزاری برای خودکارسازی استقرار برنامه ها در کانتینرها، فایل های YAML برای ساخت و پیکربندی کانتینرها استفاده می شود. و سایر موارد مرتبط (به عنوان مثال، شبکه ها، سیستم های فایل دائمی برای ذخیره سازی داده ها).

همچنین می توان از آن برای سازماندهی نوار نقاله برای CICD استفاده کرد. یکی دیگر از ویژگی های جالب کار در حالت کلاستر است، به اصطلاح حالت ازدحام (قبل از نسخه 1.12 به عنوان swarm docker شناخته می شد) که به شما امکان می دهد یک زیرساخت واحد را از چندین سرور برای اجرای کانتینرها جمع آوری کنید. پشتیبانی از یک شبکه مجازی در بالای همه سرورها وجود دارد، یک متعادل کننده بار داخلی و همچنین پشتیبانی از اسرار برای کانتینرها وجود دارد.

فایل‌های YAML از docker compose، با تغییرات جزئی، می‌توانند برای چنین خوشه‌هایی استفاده شوند و به طور کامل تعمیر و نگهداری خوشه‌های کوچک و متوسط ​​را برای اهداف مختلف به‌طور خودکار انجام دهند. برای خوشه های بزرگ، Kubernetes ترجیح داده می شود زیرا هزینه های نگهداری حالت ازدحام می تواند از هزینه های Kubernetes بیشتر شود. علاوه بر runC، می توانید مثلاً به عنوان محیط اجرای کانتینر نصب کنید ظروف کاتا

کار با داکر

پس از نصب و پیکربندی، ما سعی خواهیم کرد یک کلاستر جمع آوری کنیم که در آن GitLab و Docker Registry را برای تیم توسعه مستقر کنیم. من از سه ماشین مجازی به عنوان سرور استفاده خواهم کرد، که علاوه بر آن FS GlusterFS توزیع شده را بر روی آنها مستقر خواهم کرد؛ از آن به عنوان ذخیره‌سازی حجم‌های داکر استفاده خواهم کرد، به عنوان مثال، برای اجرای یک نسخه مقاوم در برابر خطا از رجیستری داکر. اجزای کلیدی برای اجرا: Docker Registry، Postgresql، Redis، GitLab با پشتیبانی از GitLab Runner در بالای Swarm. ما Postgresql را با خوشه بندی راه اندازی خواهیم کرد استولون، بنابراین نیازی به استفاده از GlusterFS برای ذخیره داده های Postgresql ندارید. داده های حیاتی باقی مانده در GlusterFS ذخیره می شود.

برای استقرار GlusterFS در همه سرورها (به آنها node1، node2، node3 می گویند)، باید بسته ها را نصب کنید، فایروال را فعال کنید و دایرکتوری های لازم را ایجاد کنید:

# yum -y install centos-release-gluster7
# yum -y install glusterfs-server
# systemctl enable glusterd
# systemctl start glusterd
# firewall-cmd --add-service=glusterfs --permanent
# firewall-cmd --reload
# mkdir -p /srv/gluster
# mkdir -p /srv/docker
# echo "$(hostname):/docker /srv/docker glusterfs defaults,_netdev 0 0" >> /etc/fstab

پس از نصب، کار بر روی پیکربندی GlusterFS باید از یک گره ادامه یابد، به عنوان مثال node1:

# gluster peer probe node2
# gluster peer probe node3
# gluster volume create docker replica 3 node1:/srv/gluster node2:/srv/gluster node3:/srv/gluster force
# gluster volume start docker

سپس باید حجم حاصل را مونت کنید (فرمان باید در همه سرورها اجرا شود):

# mount /srv/docker

حالت ازدحام روی یکی از سرورها پیکربندی شده است که رهبر خواهد بود، بقیه باید به خوشه بپیوندند، بنابراین نتیجه اجرای دستور در سرور اول باید کپی و روی بقیه اجرا شود.

در راه اندازی اولیه کلاستر، دستور را روی node1 اجرا می کنم:

# docker swarm init
Swarm initialized: current node (a5jpfrh5uvo7svzz1ajduokyq) is now a manager.

To add a worker to this swarm, run the following command:

    docker swarm join --token SWMTKN-1-0c5mf7mvzc7o7vjk0wngno2dy70xs95tovfxbv4tqt9280toku-863hyosdlzvd76trfptd4xnzd xx.xx.xx.xx:2377

To add a manager to this swarm, run 'docker swarm join-token manager' and follow the instructions.
# docker swarm join-token manager

نتیجه دستور دوم را کپی کرده و روی node2 و node3 اجرا می کنیم:

# docker swarm join --token SWMTKN-x-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx-xxxxxxxxx xx.xx.xx.xx:2377
This node joined a swarm as a manager.

در این مرحله، پیکربندی اولیه سرورها به پایان رسیده است، اجازه دهید به راه اندازی سرویس ها ادامه دهیم؛ دستوراتی که باید اجرا شوند از node1 راه اندازی می شوند، مگر اینکه خلاف آن مشخص شده باشد.

اول از همه، بیایید شبکه هایی برای کانتینرها ایجاد کنیم:

# docker network create --driver=overlay etcd
# docker network create --driver=overlay pgsql
# docker network create --driver=overlay redis
# docker network create --driver=overlay traefik
# docker network create --driver=overlay gitlab

سپس سرورها را علامت گذاری می کنیم، این برای اتصال برخی از خدمات به سرورها ضروری است:

# docker node update --label-add nodename=node1 node1
# docker node update --label-add nodename=node2 node2
# docker node update --label-add nodename=node3 node3

بعد، ما دایرکتوری هایی برای ذخیره داده های etcd، ذخیره سازی KV، که برای Traefik و Stolon مورد نیاز است، ایجاد می کنیم. مشابه Postgresql، اینها کانتینرهایی هستند که به سرورها گره خورده اند، بنابراین ما این دستور را روی همه سرورها اجرا می کنیم:

# mkdir -p /srv/etcd

بعد، یک فایل برای پیکربندی etcd ایجاد کنید و از آن استفاده کنید:

00etcd.yml

version: '3.7'

services:
  etcd1:
    image: quay.io/coreos/etcd:latest
    hostname: etcd1
    command:
      - etcd
      - --name=etcd1
      - --data-dir=/data.etcd
      - --advertise-client-urls=http://etcd1:2379
      - --listen-client-urls=http://0.0.0.0:2379
      - --initial-advertise-peer-urls=http://etcd1:2380
      - --listen-peer-urls=http://0.0.0.0:2380
      - --initial-cluster=etcd1=http://etcd1:2380,etcd2=http://etcd2:2380,etcd3=http://etcd3:2380
      - --initial-cluster-state=new
      - --initial-cluster-token=etcd-cluster
    networks:
      - etcd
    volumes:
      - etcd1vol:/data.etcd
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node1]
  etcd2:
    image: quay.io/coreos/etcd:latest
    hostname: etcd2
    command:
      - etcd
      - --name=etcd2
      - --data-dir=/data.etcd
      - --advertise-client-urls=http://etcd2:2379
      - --listen-client-urls=http://0.0.0.0:2379
      - --initial-advertise-peer-urls=http://etcd2:2380
      - --listen-peer-urls=http://0.0.0.0:2380
      - --initial-cluster=etcd1=http://etcd1:2380,etcd2=http://etcd2:2380,etcd3=http://etcd3:2380
      - --initial-cluster-state=new
      - --initial-cluster-token=etcd-cluster
    networks:
      - etcd
    volumes:
      - etcd2vol:/data.etcd
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node2]
  etcd3:
    image: quay.io/coreos/etcd:latest
    hostname: etcd3
    command:
      - etcd
      - --name=etcd3
      - --data-dir=/data.etcd
      - --advertise-client-urls=http://etcd3:2379
      - --listen-client-urls=http://0.0.0.0:2379
      - --initial-advertise-peer-urls=http://etcd3:2380
      - --listen-peer-urls=http://0.0.0.0:2380
      - --initial-cluster=etcd1=http://etcd1:2380,etcd2=http://etcd2:2380,etcd3=http://etcd3:2380
      - --initial-cluster-state=new
      - --initial-cluster-token=etcd-cluster
    networks:
      - etcd
    volumes:
      - etcd3vol:/data.etcd
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node3]

volumes:
  etcd1vol:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/etcd"
  etcd2vol:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/etcd"
  etcd3vol:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/etcd"

networks:
  etcd:
    external: true

# docker stack deploy --compose-file 00etcd.yml etcd

پس از مدتی، ما بررسی می کنیم که خوشه etcd بالا باشد:

# docker exec $(docker ps | awk '/etcd/ {print $1}')  etcdctl member list
ade526d28b1f92f7: name=etcd1 peerURLs=http://etcd1:2380 clientURLs=http://etcd1:2379 isLeader=false
bd388e7810915853: name=etcd3 peerURLs=http://etcd3:2380 clientURLs=http://etcd3:2379 isLeader=false
d282ac2ce600c1ce: name=etcd2 peerURLs=http://etcd2:2380 clientURLs=http://etcd2:2379 isLeader=true
# docker exec $(docker ps | awk '/etcd/ {print $1}')  etcdctl cluster-health
member ade526d28b1f92f7 is healthy: got healthy result from http://etcd1:2379
member bd388e7810915853 is healthy: got healthy result from http://etcd3:2379
member d282ac2ce600c1ce is healthy: got healthy result from http://etcd2:2379
cluster is healthy

ما دایرکتوری هایی را برای Postgresql ایجاد می کنیم، دستور را در همه سرورها اجرا می کنیم:

# mkdir -p /srv/pgsql

بعد، یک فایل برای پیکربندی Postgresql ایجاد کنید:

01pgsql.yml

version: '3.7'

services:
  pgsentinel:
    image: sorintlab/stolon:master-pg10
    command:
      - gosu
      - stolon
      - stolon-sentinel
      - --cluster-name=stolon-cluster
      - --store-backend=etcdv3
      - --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
      - --log-level=debug
    networks:
      - etcd
      - pgsql
    deploy:
      replicas: 3
      update_config:
        parallelism: 1
        delay: 30s
        order: stop-first
        failure_action: pause
  pgkeeper1:
    image: sorintlab/stolon:master-pg10
    hostname: pgkeeper1
    command:
      - gosu
      - stolon
      - stolon-keeper
      - --pg-listen-address=pgkeeper1
      - --pg-repl-username=replica
      - --uid=pgkeeper1
      - --pg-su-username=postgres
      - --pg-su-passwordfile=/run/secrets/pgsql
      - --pg-repl-passwordfile=/run/secrets/pgsql_repl
      - --data-dir=/var/lib/postgresql/data
      - --cluster-name=stolon-cluster
      - --store-backend=etcdv3
      - --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
    networks:
      - etcd
      - pgsql
    environment:
      - PGDATA=/var/lib/postgresql/data
    volumes:
      - pgkeeper1:/var/lib/postgresql/data
    secrets:
      - pgsql
      - pgsql_repl
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node1]
  pgkeeper2:
    image: sorintlab/stolon:master-pg10
    hostname: pgkeeper2
    command:
      - gosu
      - stolon 
      - stolon-keeper
      - --pg-listen-address=pgkeeper2
      - --pg-repl-username=replica
      - --uid=pgkeeper2
      - --pg-su-username=postgres
      - --pg-su-passwordfile=/run/secrets/pgsql
      - --pg-repl-passwordfile=/run/secrets/pgsql_repl
      - --data-dir=/var/lib/postgresql/data
      - --cluster-name=stolon-cluster
      - --store-backend=etcdv3
      - --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
    networks:
      - etcd
      - pgsql
    environment:
      - PGDATA=/var/lib/postgresql/data
    volumes:
      - pgkeeper2:/var/lib/postgresql/data
    secrets:
      - pgsql
      - pgsql_repl
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node2]
  pgkeeper3:
    image: sorintlab/stolon:master-pg10
    hostname: pgkeeper3
    command:
      - gosu
      - stolon 
      - stolon-keeper
      - --pg-listen-address=pgkeeper3
      - --pg-repl-username=replica
      - --uid=pgkeeper3
      - --pg-su-username=postgres
      - --pg-su-passwordfile=/run/secrets/pgsql
      - --pg-repl-passwordfile=/run/secrets/pgsql_repl
      - --data-dir=/var/lib/postgresql/data
      - --cluster-name=stolon-cluster
      - --store-backend=etcdv3
      - --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
    networks:
      - etcd
      - pgsql
    environment:
      - PGDATA=/var/lib/postgresql/data
    volumes:
      - pgkeeper3:/var/lib/postgresql/data
    secrets:
      - pgsql
      - pgsql_repl
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node3]
  postgresql:
    image: sorintlab/stolon:master-pg10
    command: gosu stolon stolon-proxy --listen-address 0.0.0.0 --cluster-name stolon-cluster --store-backend=etcdv3 --store-endpoints http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
    networks:
      - etcd
      - pgsql
    deploy:
      replicas: 3
      update_config:
        parallelism: 1
        delay: 30s
        order: stop-first
        failure_action: rollback

volumes:
  pgkeeper1:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/pgsql"
  pgkeeper2:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/pgsql"
  pgkeeper3:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/pgsql"

secrets:
  pgsql:
    file: "/srv/docker/postgres"
  pgsql_repl:
    file: "/srv/docker/replica"

networks:
  etcd:
    external: true
  pgsql:
    external: true

ما اسرار را ایجاد می کنیم و از فایل استفاده می کنیم:

# </dev/urandom tr -dc 234567890qwertyuopasdfghjkzxcvbnmQWERTYUPASDFGHKLZXCVBNM | head -c $(((RANDOM%3)+15)) > /srv/docker/replica
# </dev/urandom tr -dc 234567890qwertyuopasdfghjkzxcvbnmQWERTYUPASDFGHKLZXCVBNM | head -c $(((RANDOM%3)+15)) > /srv/docker/postgres
# docker stack deploy --compose-file 01pgsql.yml pgsql

پس از مدتی (خروجی دستور را ببینید سرویس docker lsکه همه سرویس ها فعال هستند) ما خوشه Postgresql را مقداردهی اولیه می کنیم:

# docker exec $(docker ps | awk '/pgkeeper/ {print $1}') stolonctl --cluster-name=stolon-cluster --store-backend=etcdv3 --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379 init

بررسی آمادگی خوشه Postgresql:

# docker exec $(docker ps | awk '/pgkeeper/ {print $1}') stolonctl --cluster-name=stolon-cluster --store-backend=etcdv3 --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379 status
=== Active sentinels ===

ID      LEADER
26baa11d    false
74e98768    false
a8cb002b    true

=== Active proxies ===

ID
4d233826
9f562f3b
b0c79ff1

=== Keepers ===

UID     HEALTHY PG LISTENADDRESS    PG HEALTHY  PG WANTEDGENERATION PG CURRENTGENERATION
pgkeeper1   true    pgkeeper1:5432         true     2           2
pgkeeper2   true    pgkeeper2:5432          true            2                   2
pgkeeper3   true    pgkeeper3:5432          true            3                   3

=== Cluster Info ===

Master Keeper: pgkeeper3

===== Keepers/DB tree =====

pgkeeper3 (master)
├─pgkeeper2
└─pgkeeper1

ما traefik را برای باز کردن دسترسی به کانتینرها از خارج پیکربندی می کنیم:

03traefik.yml

version: '3.7'

services:
  traefik:
    image: traefik:latest
    command: >
      --log.level=INFO
      --providers.docker=true
      --entryPoints.web.address=:80
      --providers.providersThrottleDuration=2
      --providers.docker.watch=true
      --providers.docker.swarmMode=true
      --providers.docker.swarmModeRefreshSeconds=15s
      --providers.docker.exposedbydefault=false
      --accessLog.bufferingSize=0
      --api=true
      --api.dashboard=true
      --api.insecure=true
    networks:
      - traefik
    ports:
      - 80:80
    volumes:
      - /var/run/docker.sock:/var/run/docker.sock
    deploy:
      replicas: 3
      placement:
        constraints:
          - node.role == manager
        preferences:
          - spread: node.id
      labels:
        - traefik.enable=true
        - traefik.http.routers.traefik.rule=Host(`traefik.example.com`)
        - traefik.http.services.traefik.loadbalancer.server.port=8080
        - traefik.docker.network=traefik

networks:
  traefik:
    external: true

# docker stack deploy --compose-file 03traefik.yml traefik

ما Redis Cluster را راه اندازی می کنیم، برای انجام این کار، یک دایرکتوری ذخیره سازی در همه گره ها ایجاد می کنیم:

# mkdir -p /srv/redis

05redis.yml

version: '3.7'

services:
  redis-master:
    image: 'bitnami/redis:latest'
    networks:
      - redis
    ports:
      - '6379:6379'
    environment:
      - REDIS_REPLICATION_MODE=master
      - REDIS_PASSWORD=xxxxxxxxxxx
    deploy:
      mode: global
      restart_policy:
        condition: any
    volumes:
      - 'redis:/opt/bitnami/redis/etc/'

  redis-replica:
    image: 'bitnami/redis:latest'
    networks:
      - redis
    ports:
      - '6379'
    depends_on:
      - redis-master
    environment:
      - REDIS_REPLICATION_MODE=slave
      - REDIS_MASTER_HOST=redis-master
      - REDIS_MASTER_PORT_NUMBER=6379
      - REDIS_MASTER_PASSWORD=xxxxxxxxxxx
      - REDIS_PASSWORD=xxxxxxxxxxx
    deploy:
      mode: replicated
      replicas: 3
      update_config:
        parallelism: 1
        delay: 10s
      restart_policy:
        condition: any

  redis-sentinel:
    image: 'bitnami/redis:latest'
    networks:
      - redis
    ports:
      - '16379'
    depends_on:
      - redis-master
      - redis-replica
    entrypoint: |
      bash -c 'bash -s <<EOF
      "/bin/bash" -c "cat <<EOF > /opt/bitnami/redis/etc/sentinel.conf
      port 16379
      dir /tmp
      sentinel monitor master-node redis-master 6379 2
      sentinel down-after-milliseconds master-node 5000
      sentinel parallel-syncs master-node 1
      sentinel failover-timeout master-node 5000
      sentinel auth-pass master-node xxxxxxxxxxx
      sentinel announce-ip redis-sentinel
      sentinel announce-port 16379
      EOF"
      "/bin/bash" -c "redis-sentinel /opt/bitnami/redis/etc/sentinel.conf"
      EOF'
    deploy:
      mode: global
      restart_policy:
        condition: any

volumes:
  redis:
    driver: local
    driver_opts:
      type: 'none'
      o: 'bind'
      device: "/srv/redis"

networks:
  redis:
    external: true

# docker stack deploy --compose-file 05redis.yml redis

اضافه کردن Docker Registry:

06registry.yml

version: '3.7'

services:
  registry:
    image: registry:2.6
    networks:
      - traefik
    volumes:
      - registry_data:/var/lib/registry
    deploy:
      replicas: 1
      placement:
        constraints: [node.role == manager]
      restart_policy:
        condition: on-failure
      labels:
        - traefik.enable=true
        - traefik.http.routers.registry.rule=Host(`registry.example.com`)
        - traefik.http.services.registry.loadbalancer.server.port=5000
        - traefik.docker.network=traefik

volumes:
  registry_data:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/docker/registry"

networks:
  traefik:
    external: true

# mkdir /srv/docker/registry
# docker stack deploy --compose-file 06registry.yml registry

و در نهایت - GitLab:

08gitlab-runner.yml

version: '3.7'

services:
  gitlab:
    image: gitlab/gitlab-ce:latest
    networks:
      - pgsql
      - redis
      - traefik
      - gitlab
    ports:
      - 22222:22
    environment:
      GITLAB_OMNIBUS_CONFIG: |
        postgresql['enable'] = false
        redis['enable'] = false
        gitlab_rails['registry_enabled'] = false
        gitlab_rails['db_username'] = "gitlab"
        gitlab_rails['db_password'] = "XXXXXXXXXXX"
        gitlab_rails['db_host'] = "postgresql"
        gitlab_rails['db_port'] = "5432"
        gitlab_rails['db_database'] = "gitlab"
        gitlab_rails['db_adapter'] = 'postgresql'
        gitlab_rails['db_encoding'] = 'utf8'
        gitlab_rails['redis_host'] = 'redis-master'
        gitlab_rails['redis_port'] = '6379'
        gitlab_rails['redis_password'] = 'xxxxxxxxxxx'
        gitlab_rails['smtp_enable'] = true
        gitlab_rails['smtp_address'] = "smtp.yandex.ru"
        gitlab_rails['smtp_port'] = 465
        gitlab_rails['smtp_user_name'] = "[email protected]"
        gitlab_rails['smtp_password'] = "xxxxxxxxx"
        gitlab_rails['smtp_domain'] = "example.com"
        gitlab_rails['gitlab_email_from'] = '[email protected]'
        gitlab_rails['smtp_authentication'] = "login"
        gitlab_rails['smtp_tls'] = true
        gitlab_rails['smtp_enable_starttls_auto'] = true
        gitlab_rails['smtp_openssl_verify_mode'] = 'peer'
        external_url 'http://gitlab.example.com/'
        gitlab_rails['gitlab_shell_ssh_port'] = 22222
    volumes:
      - gitlab_conf:/etc/gitlab
      - gitlab_logs:/var/log/gitlab
      - gitlab_data:/var/opt/gitlab
    deploy:
      mode: replicated
      replicas: 1
      placement:
        constraints:
        - node.role == manager
      labels:
        - traefik.enable=true
        - traefik.http.routers.gitlab.rule=Host(`gitlab.example.com`)
        - traefik.http.services.gitlab.loadbalancer.server.port=80
        - traefik.docker.network=traefik
  gitlab-runner:
    image: gitlab/gitlab-runner:latest
    networks:
      - gitlab
    volumes:
      - gitlab_runner_conf:/etc/gitlab
      - /var/run/docker.sock:/var/run/docker.sock
    deploy:
      mode: replicated
      replicas: 1
      placement:
        constraints:
        - node.role == manager

volumes:
  gitlab_conf:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/docker/gitlab/conf"
  gitlab_logs:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/docker/gitlab/logs"
  gitlab_data:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/docker/gitlab/data"
  gitlab_runner_conf:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/docker/gitlab/runner"

networks:
  pgsql:
    external: true
  redis:
    external: true
  traefik:
    external: true
  gitlab:
    external: true

# mkdir -p /srv/docker/gitlab/conf
# mkdir -p /srv/docker/gitlab/logs
# mkdir -p /srv/docker/gitlab/data
# mkdir -p /srv/docker/gitlab/runner
# docker stack deploy --compose-file 08gitlab-runner.yml gitlab

وضعیت نهایی خوشه و خدمات:

# docker service ls
ID                  NAME                   MODE                REPLICAS            IMAGE                          PORTS
lef9n3m92buq        etcd_etcd1             replicated          1/1                 quay.io/coreos/etcd:latest
ij6uyyo792x5        etcd_etcd2             replicated          1/1                 quay.io/coreos/etcd:latest
fqttqpjgp6pp        etcd_etcd3             replicated          1/1                 quay.io/coreos/etcd:latest
hq5iyga28w33        gitlab_gitlab          replicated          1/1                 gitlab/gitlab-ce:latest        *:22222->22/tcp
dt7s6vs0q4qc        gitlab_gitlab-runner   replicated          1/1                 gitlab/gitlab-runner:latest
k7uoezno0h9n        pgsql_pgkeeper1        replicated          1/1                 sorintlab/stolon:master-pg10
cnrwul4r4nse        pgsql_pgkeeper2        replicated          1/1                 sorintlab/stolon:master-pg10
frflfnpty7tr        pgsql_pgkeeper3        replicated          1/1                 sorintlab/stolon:master-pg10
x7pqqchi52kq        pgsql_pgsentinel       replicated          3/3                 sorintlab/stolon:master-pg10
mwu2wl8fti4r        pgsql_postgresql       replicated          3/3                 sorintlab/stolon:master-pg10
9hkbe2vksbzb        redis_redis-master     global              3/3                 bitnami/redis:latest           *:6379->6379/tcp
l88zn8cla7dc        redis_redis-replica    replicated          3/3                 bitnami/redis:latest           *:30003->6379/tcp
1utp309xfmsy        redis_redis-sentinel   global              3/3                 bitnami/redis:latest           *:30002->16379/tcp
oteb824ylhyp        registry_registry      replicated          1/1                 registry:2.6
qovrah8nzzu8        traefik_traefik        replicated          3/3                 traefik:latest                 *:80->80/tcp, *:443->443/tcp

چه چیز دیگری را می توان بهبود بخشید؟ حتما Traefik را برای اجرای کانتینرها روی https پیکربندی کنید، رمزگذاری tls را برای Postgresql و Redis اضافه کنید. اما به طور کلی، می توان آن را از قبل به عنوان یک PoC در اختیار توسعه دهندگان قرار داد. بیایید اکنون به جایگزین های Docker نگاه کنیم.

پودمن

یکی دیگر از موتورهای نسبتاً شناخته شده برای اجرای کانتینرهای گروه بندی شده توسط غلاف (غلاف ها، گروه هایی از کانتینرها که با هم مستقر شده اند). برخلاف Docker، برای اجرای کانتینرها به هیچ سرویسی نیاز ندارد؛ تمام کارها از طریق کتابخانه libpod انجام می شود. همچنین در Go نوشته شده است، برای اجرای کانتینرها، مانند runC، به یک زمان اجرا سازگار با OCI نیاز دارد.

داکر و همه، همه، همه

کار با Podman به طور کلی برای داکر یادآور همان کار است، تا جایی که می توانید این کار را به این صورت انجام دهید (همانطور که بسیاری از کسانی که آن را امتحان کرده اند، از جمله نویسنده این مقاله گفته اند):

$ alias docker=podman

و می توانید به کار خود ادامه دهید. به طور کلی، وضعیت Podman بسیار جالب است، زیرا اگر نسخه های اولیه Kubernetes با Docker کار می کردند، پس از حدود سال 2015، پس از استانداردسازی دنیای کانتینرها (OCI - Open Container Initiative) و تقسیم Docker به کانتینر و runC، جایگزینی برای Docker برای اجرا در Kubernetes در حال توسعه است: CRI-O. Podman در این زمینه جایگزینی برای Docker است که بر اساس اصول Kubernetes از جمله گروه بندی کانتینرها ساخته شده است، اما هدف اصلی این پروژه راه اندازی کانتینرهای سبک Docker بدون خدمات اضافی است. به دلایل واضح، حالت ازدحام وجود ندارد، زیرا توسعه دهندگان به وضوح می گویند که اگر به یک خوشه نیاز دارید، Kubernetes را بگیرید.

نصب

برای نصب روی Centos 7، فقط مخزن Extras را فعال کنید و سپس همه چیز را با دستور نصب کنید:

# yum -y install podman

ویژگی های دیگر

Podman می تواند واحدهایی را برای systemd تولید کند، بنابراین مشکل راه اندازی کانتینرها پس از راه اندازی مجدد سرور را حل می کند. علاوه بر این، systemd اعلام شده است که به عنوان pid 1 در ظرف به درستی کار می کند. یک ابزار buildah جداگانه برای ساخت ظروف وجود دارد، همچنین ابزارهای شخص ثالث وجود دارد - آنالوگ های docker-compose، که همچنین فایل های پیکربندی سازگار با Kubernetes را تولید می کنند، بنابراین انتقال از Podman به Kubernetes تا حد امکان ساده شده است.

کار با Podman

از آنجایی که حالت ازدحامی وجود ندارد (قرار است در صورت نیاز به خوشه ای به Kubernetes سوئیچ کنیم)، آن را در کانتینرهای جداگانه جمع آوری می کنیم.

نصب podman-compose:

# yum -y install python3-pip
# pip3 install podman-compose

فایل پیکربندی به دست آمده برای پادمن کمی متفاوت است، بنابراین برای مثال مجبور شدیم یک بخش حجم جداگانه را مستقیماً به بخش خدمات منتقل کنیم.

gitlab-podman.yml

version: '3.7'

services:
  gitlab:
    image: gitlab/gitlab-ce:latest
    hostname: gitlab.example.com
    restart: unless-stopped
    environment:
      GITLAB_OMNIBUS_CONFIG: |
        gitlab_rails['gitlab_shell_ssh_port'] = 22222
    ports:
      - "80:80"
      - "22222:22"
    volumes:
      - /srv/podman/gitlab/conf:/etc/gitlab
      - /srv/podman/gitlab/data:/var/opt/gitlab
      - /srv/podman/gitlab/logs:/var/log/gitlab
    networks:
      - gitlab

  gitlab-runner:
    image: gitlab/gitlab-runner:alpine
    restart: unless-stopped
    depends_on:
      - gitlab
    volumes:
      - /srv/podman/gitlab/runner:/etc/gitlab-runner
      - /var/run/docker.sock:/var/run/docker.sock
    networks:
      - gitlab

networks:
  gitlab:

# podman-compose -f gitlab-runner.yml -d up

نتیجه:

# podman ps
CONTAINER ID  IMAGE                                  COMMAND               CREATED             STATUS                 PORTS                                      NAMES
da53da946c01  docker.io/gitlab/gitlab-runner:alpine  run --user=gitlab...  About a minute ago  Up About a minute ago  0.0.0.0:22222->22/tcp, 0.0.0.0:80->80/tcp  root_gitlab-runner_1
781c0103c94a  docker.io/gitlab/gitlab-ce:latest      /assets/wrapper       About a minute ago  Up About a minute ago  0.0.0.0:22222->22/tcp, 0.0.0.0:80->80/tcp  root_gitlab_1

بیایید ببینیم چه چیزی برای systemd و kubernetes تولید می کند، برای این کار باید نام یا شناسه pod را پیدا کنیم:

# podman pod ls
POD ID         NAME   STATUS    CREATED          # OF CONTAINERS   INFRA ID
71fc2b2a5c63   root   Running   11 minutes ago   3                 db40ab8bf84b

Kubernetes:

# podman generate kube 71fc2b2a5c63
# Generation of Kubernetes YAML is still under development!
#
# Save the output of this file and use kubectl create -f to import
# it into Kubernetes.
#
# Created with podman-1.6.4
apiVersion: v1
kind: Pod
metadata:
  creationTimestamp: "2020-07-29T19:22:40Z"
  labels:
    app: root
  name: root
spec:
  containers:
  - command:
    - /assets/wrapper
    env:
    - name: PATH
      value: /opt/gitlab/embedded/bin:/opt/gitlab/bin:/assets:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin
    - name: TERM
      value: xterm
    - name: HOSTNAME
      value: gitlab.example.com
    - name: container
      value: podman
    - name: GITLAB_OMNIBUS_CONFIG
      value: |
        gitlab_rails['gitlab_shell_ssh_port'] = 22222
    - name: LANG
      value: C.UTF-8
    image: docker.io/gitlab/gitlab-ce:latest
    name: rootgitlab1
    ports:
    - containerPort: 22
      hostPort: 22222
      protocol: TCP
    - containerPort: 80
      hostPort: 80
      protocol: TCP
    resources: {}
    securityContext:
      allowPrivilegeEscalation: true
      capabilities: {}
      privileged: false
      readOnlyRootFilesystem: false
    volumeMounts:
    - mountPath: /var/opt/gitlab
      name: srv-podman-gitlab-data
    - mountPath: /var/log/gitlab
      name: srv-podman-gitlab-logs
    - mountPath: /etc/gitlab
      name: srv-podman-gitlab-conf
    workingDir: /
  - command:
    - run
    - --user=gitlab-runner
    - --working-directory=/home/gitlab-runner
    env:
    - name: PATH
      value: /usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin
    - name: TERM
      value: xterm
    - name: HOSTNAME
    - name: container
      value: podman
    image: docker.io/gitlab/gitlab-runner:alpine
    name: rootgitlab-runner1
    resources: {}
    securityContext:
      allowPrivilegeEscalation: true
      capabilities: {}
      privileged: false
      readOnlyRootFilesystem: false
    volumeMounts:
    - mountPath: /etc/gitlab-runner
      name: srv-podman-gitlab-runner
    - mountPath: /var/run/docker.sock
      name: var-run-docker.sock
    workingDir: /
  volumes:
  - hostPath:
      path: /srv/podman/gitlab/runner
      type: Directory
    name: srv-podman-gitlab-runner
  - hostPath:
      path: /var/run/docker.sock
      type: File
    name: var-run-docker.sock
  - hostPath:
      path: /srv/podman/gitlab/data
      type: Directory
    name: srv-podman-gitlab-data
  - hostPath:
      path: /srv/podman/gitlab/logs
      type: Directory
    name: srv-podman-gitlab-logs
  - hostPath:
      path: /srv/podman/gitlab/conf
      type: Directory
    name: srv-podman-gitlab-conf
status: {}

سیستم شده:

# podman generate systemd 71fc2b2a5c63
# pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
# autogenerated by Podman 1.6.4
# Thu Jul 29 15:23:28 EDT 2020

[Unit]
Description=Podman pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
Documentation=man:podman-generate-systemd(1)
Requires=container-781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3.service container-da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864.service
Before=container-781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3.service container-da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864.service

[Service]
Restart=on-failure
ExecStart=/usr/bin/podman start db40ab8bf84bf35141159c26cb6e256b889c7a98c0418eee3c4aa683c14fccaa
ExecStop=/usr/bin/podman stop -t 10 db40ab8bf84bf35141159c26cb6e256b889c7a98c0418eee3c4aa683c14fccaa
KillMode=none
Type=forking
PIDFile=/var/run/containers/storage/overlay-containers/db40ab8bf84bf35141159c26cb6e256b889c7a98c0418eee3c4aa683c14fccaa/userdata/conmon.pid

[Install]
WantedBy=multi-user.target
# container-da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864.service
# autogenerated by Podman 1.6.4
# Thu Jul 29 15:23:28 EDT 2020

[Unit]
Description=Podman container-da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864.service
Documentation=man:podman-generate-systemd(1)
RefuseManualStart=yes
RefuseManualStop=yes
BindsTo=pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
After=pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service

[Service]
Restart=on-failure
ExecStart=/usr/bin/podman start da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864
ExecStop=/usr/bin/podman stop -t 10 da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864
KillMode=none
Type=forking
PIDFile=/var/run/containers/storage/overlay-containers/da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864/userdata/conmon.pid

[Install]
WantedBy=multi-user.target
# container-781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3.service
# autogenerated by Podman 1.6.4
# Thu Jul 29 15:23:28 EDT 2020

[Unit]
Description=Podman container-781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3.service
Documentation=man:podman-generate-systemd(1)
RefuseManualStart=yes
RefuseManualStop=yes
BindsTo=pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
After=pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service

[Service]
Restart=on-failure
ExecStart=/usr/bin/podman start 781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3
ExecStop=/usr/bin/podman stop -t 10 781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3
KillMode=none
Type=forking
PIDFile=/var/run/containers/storage/overlay-containers/781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3/userdata/conmon.pid

[Install]
WantedBy=multi-user.target

متأسفانه، به غیر از راه اندازی کانتینرها، واحد تولید شده برای systemd هیچ کار دیگری انجام نمی دهد (مثلاً هنگام راه اندازی مجدد چنین سرویسی، کانتینرهای قدیمی را تمیز می کند)، بنابراین باید خودتان چنین مواردی را بنویسید.

در اصل، Podman کافی است که کانتینرها را امتحان کنید، پیکربندی‌های قدیمی را برای docker-compose منتقل کنید، و سپس به سمت Kubernetes حرکت کنید، اگر به یک کلاستر نیاز دارید، یا یک جایگزین ساده‌تر برای Docker دریافت کنید.

rkt

پروژه به آرشیو رفت حدود شش ماه پیش به دلیل این واقعیت که RedHat آن را خریداری کرد، بنابراین من با جزئیات بیشتر در مورد آن صحبت نمی کنم. در کل خیلی تاثیر خوبی گذاشت ولی در مقایسه با داکر و مخصوصا Podman شبیه کمباین به نظر میرسه. همچنین یک توزیع CoreOS بر روی rkt ساخته شده بود (اگرچه آنها در ابتدا Docker داشتند)، اما پس از خرید RedHat نیز به پشتیبانی پایان رسید.

پلش

بیش یک پروژه، که نویسنده آن فقط می خواست کانتینرها را بسازد و اجرا کند. با قضاوت بر اساس اسناد و کد، نویسنده از استانداردها پیروی نکرد، بلکه به سادگی تصمیم گرفت پیاده سازی خود را بنویسد، که در اصل، او انجام داد.

یافته ها

وضعیت Kubernetes بسیار جالب است: از یک طرف، با Docker می توانید یک خوشه (در حالت ازدحام) بسازید، که با آن حتی می توانید محیط های محصول را برای مشتریان اجرا کنید، این به ویژه برای تیم های کوچک (3-5 نفر) صادق است. ، یا با بار کلی کوچک، یا عدم تمایل به درک پیچیدگی های راه اندازی Kubernetes، از جمله برای بارهای بالا.

Podman سازگاری کامل را ارائه نمی دهد، اما یک مزیت مهم دارد - سازگاری با Kubernetes، از جمله ابزارهای اضافی (buildah و دیگران). بنابراین ، من به انتخاب ابزاری برای کار به شرح زیر نزدیک خواهم شد: برای تیم های کوچک یا با بودجه محدود - Docker (با حالت ازدحام احتمالی) ، برای توسعه برای خودم در یک میزبان محلی شخصی - رفقای Podman و برای همه افراد دیگر - کوبرنتیس

من مطمئن نیستم که وضعیت Docker در آینده تغییر نکند، بالاخره آنها پیشگام هستند، و همچنین به تدریج گام به گام استاندارد می شوند، اما Podman، با همه کاستی هایش (فقط روی لینوکس کار می کند، بدون کلاستر، مونتاژ و سایر اقدامات راه حل های شخص ثالث هستند) آینده روشن تر است، بنابراین من از همه دعوت می کنم که در مورد این یافته ها در نظرات صحبت کنند.

PS در 3 آگوست راه اندازی می کنیمدوره ویدیویی داکر"، جایی که می توانید در مورد کارهای او بیشتر بدانید. ما تمام ابزارهای آن را تجزیه و تحلیل خواهیم کرد: از انتزاعات اولیه گرفته تا پارامترهای شبکه، تفاوت های ظریف کار با سیستم عامل های مختلف و زبان های برنامه نویسی. شما با این فناوری آشنا خواهید شد و درک خواهید کرد که کجا و چگونه بهتر از Docker استفاده کنید. ما همچنین بهترین موارد را به اشتراک خواهیم گذاشت.

قیمت پیش‌سفارش قبل از انتشار: 5000 روبل. می توانید برنامه Docker Video Course را مشاهده کنید در صفحه دوره.

منبع: www.habr.com

اضافه کردن نظر