ڊڪر ۽ سڀ ڪجهه، سڀ ڪجهه، سڀ ڪجهه

TL؛ DR: ڪنٽينرز ۾ هلندڙ ايپليڪيشنن لاءِ فريم ورڪ جي مقابلي لاءِ هڪ جائزو گائيڊ. ڊاکر ۽ ٻين ساڳين سسٽم جي صلاحيتن تي غور ڪيو ويندو.

ڊڪر ۽ سڀ ڪجهه، سڀ ڪجهه، سڀ ڪجهه

ٿوري تاريخ جو اهو سڀ ڪٿان آيو

История

ايپليڪيشن کي الڳ ڪرڻ لاء پهريون مشهور طريقو آهي ڪروٽ. ساڳئي نالي جي سسٽم ڪال کي يقيني بڻائي ٿو ته روٽ ڊاريڪٽري تبديل ٿي وئي آهي - اهڙيء طرح انهي کي يقيني بڻائي ٿو ته پروگرام جنهن کي سڏيو ويندو آهي صرف ان ڊاريڪٽري ۾ فائلن تائين رسائي آهي. پر جيڪڏهن هڪ پروگرام کي اندروني طور روٽ امتياز ڏنو ويو آهي، اهو ممڪن طور تي "فرار" ڪري سگهي ٿو ڪروٽ ۽ مکيه آپريٽنگ سسٽم تائين رسائي حاصل ڪري. ان کان علاوه، روٽ ڊاريڪٽري کي تبديل ڪرڻ لاء، ٻيا وسيلا (رام، پروسيسر)، گڏوگڏ نيٽ ورڪ رسائي، محدود نه آهن.

ايندڙ طريقو اهو آهي ته هڪ مڪمل آپريٽنگ سسٽم کي هڪ ڪنٽينر جي اندر شروع ڪرڻ، آپريٽنگ سسٽم ڪنيل جي ميڪانيزم کي استعمال ڪندي. اهو طريقو مختلف آپريٽنگ سسٽم ۾ مختلف طور تي سڏيو ويندو آهي، پر جوهر هڪ ئي آهي - ڪيترن ئي آزاد آپريٽنگ سسٽم کي شروع ڪرڻ، جن مان هر هڪ ساڳيو ڪنيل هلندو آهي جنهن تي مکيه آپريٽنگ سسٽم هلندو آهي. انهن ۾ شامل آهن FreeBSD جيل، سوليرس زون، OpenVZ ۽ لينڪس لاء LXC. اڪيلائي کي يقيني بڻايو وڃي ٿو نه رڳو ڊسڪ اسپيس ذريعي، پر ٻين وسيلن طرفان پڻ؛ خاص طور تي، هر ڪنٽينر کي پروسيسر جي وقت، رام، ۽ نيٽ ورڪ بينڊوڊٿ تي حدون هونديون آهن. ڪروٽ جي مقابلي ۾، ڪنٽينر کي ڇڏڻ وڌيڪ ڏکيو آهي، ڇاڪاڻ ته ڪنٽينر ۾ سپر يوزر کي صرف ڪنٽينر جي مواد تائين رسائي هوندي آهي، جڏهن ته، ڪنٽينر اندر آپريٽنگ سسٽم کي اپڊيٽ رکڻ جي ضرورت آهي ۽ پراڻن نسخن جي استعمال جي ڪري. kernels (Linux لاءِ لاڳاپيل، ٿوري حد تائين FreeBSD)، اتي نان-صفر آهي ته ڪنيل آئسوليشن سسٽم کي ”ڀڃڻ“ ۽ مکيه آپريٽنگ سسٽم تائين رسائي حاصل ڪرڻ جو امڪان.

ڪنٽينر ۾ مڪمل آپريٽنگ سسٽم (شروعاتي سسٽم، پيڪيج مئنيجر، وغيره) کي شروع ڪرڻ بدران، توهان فوري طور تي ايپليڪيشن لانچ ڪري سگهو ٿا، بنيادي شيء اها آهي ته ايپليڪيشنن کي هڪ موقعو فراهم ڪرڻ (ضروري لائبريرين جي موجودگي) ۽ ٻيون فائلون). اهو خيال ڪنٽينر ٿيل ايپليڪيشن ورچوئلائيزيشن جي بنياد طور ڪم ڪيو، جنهن جو سڀ کان نمايان ۽ معروف نمائندو آهي Docker. پوئين سسٽم جي مقابلي ۾، وڌيڪ لچڪدار آئسوليشن ميڪانيزم، ڪنٽينر جي وچ ۾ ورچوئل نيٽ ورڪن لاءِ بلٽ ان سپورٽ سان گڏ ڪنٽينر ۽ ايپليڪيشن اسٽيٽ ٽريڪنگ جي وچ ۾، نتيجي ۾ ڪنٽينرز کي هلائڻ لاءِ وڏي تعداد ۾ فزيڪل سرورز مان هڪ واحد مربوط ماحول ٺاهڻ جي صلاحيت پيدا ٿي. دستي وسيلن جي انتظام جي ضرورت کان سواء.

Docker

Docker تمام مشهور ايپليڪيشن ڪنٽينرائيزيشن سافٽ ويئر آهي. گو ٻولي ۾ لکيل، اهو لينڪس ڪنيل جي معياري خاصيتون استعمال ڪري ٿو - cgroups، namespaces، صلاحيتون، وغيره، انهي سان گڏ Aufs فائل سسٽم ۽ ٻيا ان وانگر ڊسڪ اسپيس کي بچائڻ لاء.

ڊڪر ۽ سڀ ڪجهه، سڀ ڪجهه، سڀ ڪجهه
ذريعو: وڪيميڊيا

تعمير

نسخو 1.11 کان اڳ، ڊاڪر ھڪڙي ھڪڙي خدمت جي طور تي ڪم ڪيو جيڪو ڪنٽينرز سان سڀني عملن کي انجام ڏنو: ڪنٽينرز لاء تصويرون ڊائون لوڊ ڪرڻ، ڪنٽينرز کي لانچ ڪرڻ، API جي درخواستن جي پروسيسنگ. نسخو 1.11 سان شروع ڪندي، ڊڪر کي ڪيترن ئي حصن ۾ ورهايو ويو جيڪي هڪ ٻئي سان لهه وچڙ ۾ آهن: ڪنٽينر، ڪنٽينرز جي پوري زندگي جي چڪر کي پروسيس ڪرڻ لاءِ (ڊسڪ اسپيس مختص ڪرڻ، تصويرون ڊائون لوڊ ڪرڻ، نيٽ ورڪ سان ڪم ڪرڻ، لانچ ڪرڻ، انسٽال ڪرڻ ۽ ڪنٽينرز جي حالت جي نگراني) ۽ runC، ڪنٽينر تي عمل ڪرڻ وارو ماحول، cgroups جي استعمال ۽ لينڪس ڪنيل جي ٻين خاصيتن جي بنياد تي. ڊاکر سروس پاڻ رهي ٿي، پر هاڻي اهو صرف ڪنٽينرڊ ۾ ترجمو ڪيل API درخواستن تي عمل ڪرڻ جي خدمت ڪري ٿو.

ڊڪر ۽ سڀ ڪجهه، سڀ ڪجهه، سڀ ڪجهه

انسٽاليشن ۽ ترتيب ڏيڻ

ڊاڪر کي انسٽال ڪرڻ جو منهنجو پسنديده طريقو آهي ڊڪر-مشين، جيڪو ريموٽ سرورز (مختلف ڪلائوڊز سميت) تي سڌو سنئون ڊڪر کي انسٽال ڪرڻ ۽ ترتيب ڏيڻ کان علاوه، ريموٽ سرورز جي فائيل سسٽم سان ڪم ڪرڻ ممڪن بڻائي ٿو ۽ مختلف ڪمانڊز کي به هلائي سگھي ٿو.

بهرحال، 2018 کان وٺي، پروجيڪٽ مشڪل سان ترقي ڪئي وئي آهي، تنهنڪري اسان ان کي انسٽال ڪنداسين معياري طريقي سان اڪثر لينڪس ڊويزنن لاءِ - هڪ مخزن شامل ڪرڻ ۽ ضروري پيڪيجز کي انسٽال ڪرڻ.

اهو طريقو خودڪار تنصيب لاء پڻ استعمال ڪيو ويندو آهي، مثال طور جوابي يا ٻيو ساڳيو سسٽم استعمال ڪندي، پر مان هن مضمون ۾ ان تي غور نه ڪندس.

انسٽاليشن Centos 7 تي ڪئي ويندي، مان هڪ ورچوئل مشين کي سرور طور استعمال ڪندس، انسٽال ڪرڻ لاءِ صرف ھيٺ ڏنل حڪمن کي هلائڻ لاءِ:

# yum install -y yum-utils
# yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo
# yum install docker-ce docker-ce-cli containerd.io

انسٽاليشن کان پوء، توهان کي خدمت شروع ڪرڻ ۽ ان کي شروع ڪرڻ جي ضرورت آهي:

# systemctl enable docker
# systemctl start docker
# firewall-cmd --zone=public --add-port=2377/tcp --permanent

اضافي طور تي، توهان هڪ ڊاکر گروپ ٺاهي سگهو ٿا، جنهن جا صارف بغير سوڊو جي ڊڪر سان ڪم ڪرڻ جي قابل هوندا، لاگنگ سيٽ اپ ڪرڻ، ٻاهران API تائين رسائي کي چالو ڪرڻ، ۽ فائر وال کي وڌيڪ صحيح طور تي ترتيب ڏيڻ نه وساريو (هر شي جي اجازت نه آهي. مٿي ۽ هيٺ ڏنل مثالن ۾ منع ٿيل آهي - مون سادگي ۽ وضاحت لاءِ هن کي ڇڏي ڏنو آهي) پر مان هتي وڌيڪ تفصيل ۾ نه ويندس.

ٻيون خاصيتون

مٿي بيان ڪيل ڊڪر مشين کان علاوه، ڊاڪر رجسٽري پڻ آهي، ڪنٽينرز لاءِ تصويرون محفوظ ڪرڻ لاءِ هڪ اوزار، گڏوگڏ ڊڪر ڪمپوز، ڪنٽينرز ۾ ايپليڪيشنن جي ڊيپلائيمينٽ کي خودڪار ڪرڻ لاءِ هڪ اوزار، YAML فائلون استعمال ڪيون وينديون آهن ڪنٽينرز کي ٺاهڻ ۽ ترتيب ڏيڻ لاءِ. ۽ ٻيون لاڳاپيل شيون (مثال طور، نيٽ ورڪ، اسٽوريج ڊيٽا لاء مسلسل فائل سسٽم).

اهو به CICD لاء conveyors کي منظم ڪرڻ لاء استعمال ڪري سگهجي ٿو. هڪ ٻي دلچسپ خصوصيت ڪلسٽر موڊ ۾ ڪم ڪري رهي آهي، جنهن کي swarm موڊ سڏيو ويندو آهي (ورجن 1.12 کان اڳ اهو ڊاڪر سوارم جي نالي سان مشهور هو)، جيڪو توهان کي ڪنٽينر هلائڻ لاءِ ڪيترن ئي سرورن مان هڪ ئي انفراسٽرڪچر گڏ ڪرڻ جي اجازت ڏئي ٿو. سڀني سرورن جي چوٽي تي هڪ مجازي نيٽ ورڪ جي حمايت آهي، اتي هڪ تعمير ٿيل لوڊ بيلنس آهي، انهي سان گڏ ڪنٽينرز لاء رازن جي حمايت.

ڊاڪر ڪمپوز مان YAML فائلون، معمولي ترميمن سان، استعمال ڪري سگھجن ٿيون اهڙن ڪلسٽرن لاءِ، مڪمل طور تي خودڪار ڪندي ننڍي ۽ وچولي سائيز جي ڪلسٽرن جي سار سنڀال کي مختلف مقصدن لاءِ. وڏن ڪلسترن لاءِ، ڪبرنيٽس افضل آهي ڇو ته سوارم موڊ جي سار سنڀال جا خرچ ڪبرنيٽس کان وڌيڪ ٿي سگهن ٿا. رن سي جي اضافي ۾، توھان انسٽال ڪري سگھو ٿا، مثال طور، ڪنٽينر جي عمل جي ماحول جي طور تي ڪتا ڪنٽينر

Docker سان ڪم

انسٽاليشن ۽ ٺاھ جوڙ کان پوء، اسان ھڪڙي ڪلستر کي گڏ ڪرڻ جي ڪوشش ڪنداسين جنھن ۾ اسين ڊولپمينٽ ٽيم لاء GitLab ۽ Docker رجسٽري کي ترتيب ڏينداسين. مان ٽي ورچوئل مشينون استعمال ڪندس سرور جي طور تي، جن تي مان اضافي طور تي ورهائيندس FS GlusterFS؛ مان ان کي استعمال ڪندس ڊاڪر حجم اسٽوريج جي طور تي، مثال طور، ڊڪر رجسٽري جي غلطي برداشت ڪندڙ ورزن کي هلائڻ لاءِ. هلائڻ لاءِ اھم اجزاء: ڊاڪر رجسٽري، پوسٽ گريسڪ ايل، ريڊس، گيٽ ليب گيٽ ليب رنر جي مدد سان سوارم جي چوٽي تي. اسان ڪلسترنگ سان Postgresql لانچ ڪنداسين اسٽولون، تنهنڪري توهان کي GlusterFS استعمال ڪرڻ جي ضرورت ناهي Postgresql ڊيٽا کي ذخيرو ڪرڻ لاءِ. باقي نازڪ ڊيٽا GlusterFS تي محفوظ ڪئي ويندي.

سڀني سرورن تي GlusterFS کي ترتيب ڏيڻ لاء (انهن کي node1، node2، node3 سڏيو ويندو آهي)، توهان کي پيڪيجز کي انسٽال ڪرڻ، فائر وال کي فعال ڪرڻ، ۽ ضروري ڊائريڪٽري ٺاهڻ جي ضرورت آهي:

# yum -y install centos-release-gluster7
# yum -y install glusterfs-server
# systemctl enable glusterd
# systemctl start glusterd
# firewall-cmd --add-service=glusterfs --permanent
# firewall-cmd --reload
# mkdir -p /srv/gluster
# mkdir -p /srv/docker
# echo "$(hostname):/docker /srv/docker glusterfs defaults,_netdev 0 0" >> /etc/fstab

انسٽاليشن کان پوء، GlusterFS کي ترتيب ڏيڻ تي ڪم ھڪڙي نوڊ کان جاري رکڻ گھرجي، مثال طور node1:

# gluster peer probe node2
# gluster peer probe node3
# gluster volume create docker replica 3 node1:/srv/gluster node2:/srv/gluster node3:/srv/gluster force
# gluster volume start docker

پوءِ توھان کي ضرورت آھي ماؤنٽ ڪرڻ واري مقدار کي (سڀني سرورن تي حڪم جاري ڪيو وڃي):

# mount /srv/docker

swarm mode هڪ سرور تي ترتيب ڏنو ويو آهي، جيڪو ليڊر هوندو، باقي سڀني کي ڪلسٽر ۾ شامل ٿيڻو پوندو، تنهنڪري پهرين سرور تي ڪمانڊ تي عمل ڪرڻ جو نتيجو نقل ڪرڻ ۽ ٻين تي عمل ڪرڻ جي ضرورت پوندي.

شروعاتي ڪلستر سيٽ اپ، مان هلائي ٿو حڪم node1 تي:

# docker swarm init
Swarm initialized: current node (a5jpfrh5uvo7svzz1ajduokyq) is now a manager.

To add a worker to this swarm, run the following command:

    docker swarm join --token SWMTKN-1-0c5mf7mvzc7o7vjk0wngno2dy70xs95tovfxbv4tqt9280toku-863hyosdlzvd76trfptd4xnzd xx.xx.xx.xx:2377

To add a manager to this swarm, run 'docker swarm join-token manager' and follow the instructions.
# docker swarm join-token manager

اسان ٻئي حڪم جو نتيجو نقل ڪريون ٿا ۽ ان کي node2 ۽ node3 تي عمل ڪريو:

# docker swarm join --token SWMTKN-x-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx-xxxxxxxxx xx.xx.xx.xx:2377
This node joined a swarm as a manager.

هن نقطي تي، سرورز جي ابتدائي تشڪيل مڪمل ٿي وئي آهي، اچو ته خدمتن کي ترتيب ڏيڻ لاء اڳتي وڌو؛ حڪم جاري ڪيو ويندو node1 کان شروع ڪيو ويندو، جيستائين ٻي صورت ۾ بيان نه ڪيو وڃي.

سڀ کان پهريان، اچو ته ڪنٽينرز لاء نيٽ ورڪ ٺاهي:

# docker network create --driver=overlay etcd
# docker network create --driver=overlay pgsql
# docker network create --driver=overlay redis
# docker network create --driver=overlay traefik
# docker network create --driver=overlay gitlab

پوء اسان سرور کي نشان لڳايو، اهو ضروري آهي ته ڪجهه خدمتن کي سرور ڏانهن پابند ڪرڻ لاء:

# docker node update --label-add nodename=node1 node1
# docker node update --label-add nodename=node2 node2
# docker node update --label-add nodename=node3 node3

اڳيون، اسان etcd ڊيٽا، KV اسٽوريج، جيڪو Traefik ۽ Stolon لاءِ گھربل آھي ذخيرو ڪرڻ لاءِ ڊائريڪٽريون ٺاھيون ٿا. Postgresql سان ملندڙ جلندڙ، اهي ڪنٽينر هوندا سرور سان ڳنڍيل آهن، تنهنڪري اسان هي حڪم هلون ٿا سڀني سرورن تي:

# mkdir -p /srv/etcd

اڳيون، وغيره کي ترتيب ڏيڻ لاء هڪ فائل ٺاهيو ۽ ان کي استعمال ڪريو:

00etcd.yml

version: '3.7'

services:
  etcd1:
    image: quay.io/coreos/etcd:latest
    hostname: etcd1
    command:
      - etcd
      - --name=etcd1
      - --data-dir=/data.etcd
      - --advertise-client-urls=http://etcd1:2379
      - --listen-client-urls=http://0.0.0.0:2379
      - --initial-advertise-peer-urls=http://etcd1:2380
      - --listen-peer-urls=http://0.0.0.0:2380
      - --initial-cluster=etcd1=http://etcd1:2380,etcd2=http://etcd2:2380,etcd3=http://etcd3:2380
      - --initial-cluster-state=new
      - --initial-cluster-token=etcd-cluster
    networks:
      - etcd
    volumes:
      - etcd1vol:/data.etcd
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node1]
  etcd2:
    image: quay.io/coreos/etcd:latest
    hostname: etcd2
    command:
      - etcd
      - --name=etcd2
      - --data-dir=/data.etcd
      - --advertise-client-urls=http://etcd2:2379
      - --listen-client-urls=http://0.0.0.0:2379
      - --initial-advertise-peer-urls=http://etcd2:2380
      - --listen-peer-urls=http://0.0.0.0:2380
      - --initial-cluster=etcd1=http://etcd1:2380,etcd2=http://etcd2:2380,etcd3=http://etcd3:2380
      - --initial-cluster-state=new
      - --initial-cluster-token=etcd-cluster
    networks:
      - etcd
    volumes:
      - etcd2vol:/data.etcd
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node2]
  etcd3:
    image: quay.io/coreos/etcd:latest
    hostname: etcd3
    command:
      - etcd
      - --name=etcd3
      - --data-dir=/data.etcd
      - --advertise-client-urls=http://etcd3:2379
      - --listen-client-urls=http://0.0.0.0:2379
      - --initial-advertise-peer-urls=http://etcd3:2380
      - --listen-peer-urls=http://0.0.0.0:2380
      - --initial-cluster=etcd1=http://etcd1:2380,etcd2=http://etcd2:2380,etcd3=http://etcd3:2380
      - --initial-cluster-state=new
      - --initial-cluster-token=etcd-cluster
    networks:
      - etcd
    volumes:
      - etcd3vol:/data.etcd
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node3]

volumes:
  etcd1vol:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/etcd"
  etcd2vol:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/etcd"
  etcd3vol:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/etcd"

networks:
  etcd:
    external: true

# docker stack deploy --compose-file 00etcd.yml etcd

ڪجهه وقت کان پوء، اسان چيڪ ڪيو ته etcd ڪلستر مٿي آهي:

# docker exec $(docker ps | awk '/etcd/ {print $1}')  etcdctl member list
ade526d28b1f92f7: name=etcd1 peerURLs=http://etcd1:2380 clientURLs=http://etcd1:2379 isLeader=false
bd388e7810915853: name=etcd3 peerURLs=http://etcd3:2380 clientURLs=http://etcd3:2379 isLeader=false
d282ac2ce600c1ce: name=etcd2 peerURLs=http://etcd2:2380 clientURLs=http://etcd2:2379 isLeader=true
# docker exec $(docker ps | awk '/etcd/ {print $1}')  etcdctl cluster-health
member ade526d28b1f92f7 is healthy: got healthy result from http://etcd1:2379
member bd388e7810915853 is healthy: got healthy result from http://etcd3:2379
member d282ac2ce600c1ce is healthy: got healthy result from http://etcd2:2379
cluster is healthy

اسان Postgresql لاءِ ڊاريڪٽريون ٺاھيون ٿا، سڀني سرورن تي حڪم جاري ڪريو:

# mkdir -p /srv/pgsql

اڳيون، Postgresql کي ترتيب ڏيڻ لاء هڪ فائل ٺاهيو:

01pgsql.yml

version: '3.7'

services:
  pgsentinel:
    image: sorintlab/stolon:master-pg10
    command:
      - gosu
      - stolon
      - stolon-sentinel
      - --cluster-name=stolon-cluster
      - --store-backend=etcdv3
      - --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
      - --log-level=debug
    networks:
      - etcd
      - pgsql
    deploy:
      replicas: 3
      update_config:
        parallelism: 1
        delay: 30s
        order: stop-first
        failure_action: pause
  pgkeeper1:
    image: sorintlab/stolon:master-pg10
    hostname: pgkeeper1
    command:
      - gosu
      - stolon
      - stolon-keeper
      - --pg-listen-address=pgkeeper1
      - --pg-repl-username=replica
      - --uid=pgkeeper1
      - --pg-su-username=postgres
      - --pg-su-passwordfile=/run/secrets/pgsql
      - --pg-repl-passwordfile=/run/secrets/pgsql_repl
      - --data-dir=/var/lib/postgresql/data
      - --cluster-name=stolon-cluster
      - --store-backend=etcdv3
      - --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
    networks:
      - etcd
      - pgsql
    environment:
      - PGDATA=/var/lib/postgresql/data
    volumes:
      - pgkeeper1:/var/lib/postgresql/data
    secrets:
      - pgsql
      - pgsql_repl
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node1]
  pgkeeper2:
    image: sorintlab/stolon:master-pg10
    hostname: pgkeeper2
    command:
      - gosu
      - stolon 
      - stolon-keeper
      - --pg-listen-address=pgkeeper2
      - --pg-repl-username=replica
      - --uid=pgkeeper2
      - --pg-su-username=postgres
      - --pg-su-passwordfile=/run/secrets/pgsql
      - --pg-repl-passwordfile=/run/secrets/pgsql_repl
      - --data-dir=/var/lib/postgresql/data
      - --cluster-name=stolon-cluster
      - --store-backend=etcdv3
      - --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
    networks:
      - etcd
      - pgsql
    environment:
      - PGDATA=/var/lib/postgresql/data
    volumes:
      - pgkeeper2:/var/lib/postgresql/data
    secrets:
      - pgsql
      - pgsql_repl
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node2]
  pgkeeper3:
    image: sorintlab/stolon:master-pg10
    hostname: pgkeeper3
    command:
      - gosu
      - stolon 
      - stolon-keeper
      - --pg-listen-address=pgkeeper3
      - --pg-repl-username=replica
      - --uid=pgkeeper3
      - --pg-su-username=postgres
      - --pg-su-passwordfile=/run/secrets/pgsql
      - --pg-repl-passwordfile=/run/secrets/pgsql_repl
      - --data-dir=/var/lib/postgresql/data
      - --cluster-name=stolon-cluster
      - --store-backend=etcdv3
      - --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
    networks:
      - etcd
      - pgsql
    environment:
      - PGDATA=/var/lib/postgresql/data
    volumes:
      - pgkeeper3:/var/lib/postgresql/data
    secrets:
      - pgsql
      - pgsql_repl
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node3]
  postgresql:
    image: sorintlab/stolon:master-pg10
    command: gosu stolon stolon-proxy --listen-address 0.0.0.0 --cluster-name stolon-cluster --store-backend=etcdv3 --store-endpoints http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
    networks:
      - etcd
      - pgsql
    deploy:
      replicas: 3
      update_config:
        parallelism: 1
        delay: 30s
        order: stop-first
        failure_action: rollback

volumes:
  pgkeeper1:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/pgsql"
  pgkeeper2:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/pgsql"
  pgkeeper3:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/pgsql"

secrets:
  pgsql:
    file: "/srv/docker/postgres"
  pgsql_repl:
    file: "/srv/docker/replica"

networks:
  etcd:
    external: true
  pgsql:
    external: true

اسان راز ٺاهيندا آهيون ۽ فائل استعمال ڪندا آهيون:

# </dev/urandom tr -dc 234567890qwertyuopasdfghjkzxcvbnmQWERTYUPASDFGHKLZXCVBNM | head -c $(((RANDOM%3)+15)) > /srv/docker/replica
# </dev/urandom tr -dc 234567890qwertyuopasdfghjkzxcvbnmQWERTYUPASDFGHKLZXCVBNM | head -c $(((RANDOM%3)+15)) > /srv/docker/postgres
# docker stack deploy --compose-file 01pgsql.yml pgsql

ڪجهه وقت کان پوء (ڏسو حڪم جي پيداوار ڊاکر سروس lsته سڀئي خدمتون مٿي آهن) اسان پوسٽ گريسڪ ڪلستر کي شروع ڪريون ٿا:

# docker exec $(docker ps | awk '/pgkeeper/ {print $1}') stolonctl --cluster-name=stolon-cluster --store-backend=etcdv3 --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379 init

Postgresql ڪلستر جي تياري جي جانچ ڪندي:

# docker exec $(docker ps | awk '/pgkeeper/ {print $1}') stolonctl --cluster-name=stolon-cluster --store-backend=etcdv3 --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379 status
=== Active sentinels ===

ID      LEADER
26baa11d    false
74e98768    false
a8cb002b    true

=== Active proxies ===

ID
4d233826
9f562f3b
b0c79ff1

=== Keepers ===

UID     HEALTHY PG LISTENADDRESS    PG HEALTHY  PG WANTEDGENERATION PG CURRENTGENERATION
pgkeeper1   true    pgkeeper1:5432         true     2           2
pgkeeper2   true    pgkeeper2:5432          true            2                   2
pgkeeper3   true    pgkeeper3:5432          true            3                   3

=== Cluster Info ===

Master Keeper: pgkeeper3

===== Keepers/DB tree =====

pgkeeper3 (master)
├─pgkeeper2
└─pgkeeper1

اسان ٽريفڪ کي ترتيب ڏيون ٿا ٻاهران ڪنٽينرز تائين رسائي کولڻ لاءِ:

03traefik.yml

version: '3.7'

services:
  traefik:
    image: traefik:latest
    command: >
      --log.level=INFO
      --providers.docker=true
      --entryPoints.web.address=:80
      --providers.providersThrottleDuration=2
      --providers.docker.watch=true
      --providers.docker.swarmMode=true
      --providers.docker.swarmModeRefreshSeconds=15s
      --providers.docker.exposedbydefault=false
      --accessLog.bufferingSize=0
      --api=true
      --api.dashboard=true
      --api.insecure=true
    networks:
      - traefik
    ports:
      - 80:80
    volumes:
      - /var/run/docker.sock:/var/run/docker.sock
    deploy:
      replicas: 3
      placement:
        constraints:
          - node.role == manager
        preferences:
          - spread: node.id
      labels:
        - traefik.enable=true
        - traefik.http.routers.traefik.rule=Host(`traefik.example.com`)
        - traefik.http.services.traefik.loadbalancer.server.port=8080
        - traefik.docker.network=traefik

networks:
  traefik:
    external: true

# docker stack deploy --compose-file 03traefik.yml traefik

اسان ريڊيس ڪلستر لانچ ڪيو، اهو ڪرڻ لاء اسان سڀني نوڊس تي اسٽوريج ڊاريڪٽري ٺاهي.

# mkdir -p /srv/redis

05redis.yml

version: '3.7'

services:
  redis-master:
    image: 'bitnami/redis:latest'
    networks:
      - redis
    ports:
      - '6379:6379'
    environment:
      - REDIS_REPLICATION_MODE=master
      - REDIS_PASSWORD=xxxxxxxxxxx
    deploy:
      mode: global
      restart_policy:
        condition: any
    volumes:
      - 'redis:/opt/bitnami/redis/etc/'

  redis-replica:
    image: 'bitnami/redis:latest'
    networks:
      - redis
    ports:
      - '6379'
    depends_on:
      - redis-master
    environment:
      - REDIS_REPLICATION_MODE=slave
      - REDIS_MASTER_HOST=redis-master
      - REDIS_MASTER_PORT_NUMBER=6379
      - REDIS_MASTER_PASSWORD=xxxxxxxxxxx
      - REDIS_PASSWORD=xxxxxxxxxxx
    deploy:
      mode: replicated
      replicas: 3
      update_config:
        parallelism: 1
        delay: 10s
      restart_policy:
        condition: any

  redis-sentinel:
    image: 'bitnami/redis:latest'
    networks:
      - redis
    ports:
      - '16379'
    depends_on:
      - redis-master
      - redis-replica
    entrypoint: |
      bash -c 'bash -s <<EOF
      "/bin/bash" -c "cat <<EOF > /opt/bitnami/redis/etc/sentinel.conf
      port 16379
      dir /tmp
      sentinel monitor master-node redis-master 6379 2
      sentinel down-after-milliseconds master-node 5000
      sentinel parallel-syncs master-node 1
      sentinel failover-timeout master-node 5000
      sentinel auth-pass master-node xxxxxxxxxxx
      sentinel announce-ip redis-sentinel
      sentinel announce-port 16379
      EOF"
      "/bin/bash" -c "redis-sentinel /opt/bitnami/redis/etc/sentinel.conf"
      EOF'
    deploy:
      mode: global
      restart_policy:
        condition: any

volumes:
  redis:
    driver: local
    driver_opts:
      type: 'none'
      o: 'bind'
      device: "/srv/redis"

networks:
  redis:
    external: true

# docker stack deploy --compose-file 05redis.yml redis

شامل ڪريو Docker رجسٽري:

06registry.yml

version: '3.7'

services:
  registry:
    image: registry:2.6
    networks:
      - traefik
    volumes:
      - registry_data:/var/lib/registry
    deploy:
      replicas: 1
      placement:
        constraints: [node.role == manager]
      restart_policy:
        condition: on-failure
      labels:
        - traefik.enable=true
        - traefik.http.routers.registry.rule=Host(`registry.example.com`)
        - traefik.http.services.registry.loadbalancer.server.port=5000
        - traefik.docker.network=traefik

volumes:
  registry_data:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/docker/registry"

networks:
  traefik:
    external: true

# mkdir /srv/docker/registry
# docker stack deploy --compose-file 06registry.yml registry

۽ آخرڪار - GitLab:

08gitlab-runner.yml

version: '3.7'

services:
  gitlab:
    image: gitlab/gitlab-ce:latest
    networks:
      - pgsql
      - redis
      - traefik
      - gitlab
    ports:
      - 22222:22
    environment:
      GITLAB_OMNIBUS_CONFIG: |
        postgresql['enable'] = false
        redis['enable'] = false
        gitlab_rails['registry_enabled'] = false
        gitlab_rails['db_username'] = "gitlab"
        gitlab_rails['db_password'] = "XXXXXXXXXXX"
        gitlab_rails['db_host'] = "postgresql"
        gitlab_rails['db_port'] = "5432"
        gitlab_rails['db_database'] = "gitlab"
        gitlab_rails['db_adapter'] = 'postgresql'
        gitlab_rails['db_encoding'] = 'utf8'
        gitlab_rails['redis_host'] = 'redis-master'
        gitlab_rails['redis_port'] = '6379'
        gitlab_rails['redis_password'] = 'xxxxxxxxxxx'
        gitlab_rails['smtp_enable'] = true
        gitlab_rails['smtp_address'] = "smtp.yandex.ru"
        gitlab_rails['smtp_port'] = 465
        gitlab_rails['smtp_user_name'] = "[email protected]"
        gitlab_rails['smtp_password'] = "xxxxxxxxx"
        gitlab_rails['smtp_domain'] = "example.com"
        gitlab_rails['gitlab_email_from'] = '[email protected]'
        gitlab_rails['smtp_authentication'] = "login"
        gitlab_rails['smtp_tls'] = true
        gitlab_rails['smtp_enable_starttls_auto'] = true
        gitlab_rails['smtp_openssl_verify_mode'] = 'peer'
        external_url 'http://gitlab.example.com/'
        gitlab_rails['gitlab_shell_ssh_port'] = 22222
    volumes:
      - gitlab_conf:/etc/gitlab
      - gitlab_logs:/var/log/gitlab
      - gitlab_data:/var/opt/gitlab
    deploy:
      mode: replicated
      replicas: 1
      placement:
        constraints:
        - node.role == manager
      labels:
        - traefik.enable=true
        - traefik.http.routers.gitlab.rule=Host(`gitlab.example.com`)
        - traefik.http.services.gitlab.loadbalancer.server.port=80
        - traefik.docker.network=traefik
  gitlab-runner:
    image: gitlab/gitlab-runner:latest
    networks:
      - gitlab
    volumes:
      - gitlab_runner_conf:/etc/gitlab
      - /var/run/docker.sock:/var/run/docker.sock
    deploy:
      mode: replicated
      replicas: 1
      placement:
        constraints:
        - node.role == manager

volumes:
  gitlab_conf:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/docker/gitlab/conf"
  gitlab_logs:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/docker/gitlab/logs"
  gitlab_data:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/docker/gitlab/data"
  gitlab_runner_conf:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/docker/gitlab/runner"

networks:
  pgsql:
    external: true
  redis:
    external: true
  traefik:
    external: true
  gitlab:
    external: true

# mkdir -p /srv/docker/gitlab/conf
# mkdir -p /srv/docker/gitlab/logs
# mkdir -p /srv/docker/gitlab/data
# mkdir -p /srv/docker/gitlab/runner
# docker stack deploy --compose-file 08gitlab-runner.yml gitlab

ڪلستر ۽ خدمتن جي آخري حالت:

# docker service ls
ID                  NAME                   MODE                REPLICAS            IMAGE                          PORTS
lef9n3m92buq        etcd_etcd1             replicated          1/1                 quay.io/coreos/etcd:latest
ij6uyyo792x5        etcd_etcd2             replicated          1/1                 quay.io/coreos/etcd:latest
fqttqpjgp6pp        etcd_etcd3             replicated          1/1                 quay.io/coreos/etcd:latest
hq5iyga28w33        gitlab_gitlab          replicated          1/1                 gitlab/gitlab-ce:latest        *:22222->22/tcp
dt7s6vs0q4qc        gitlab_gitlab-runner   replicated          1/1                 gitlab/gitlab-runner:latest
k7uoezno0h9n        pgsql_pgkeeper1        replicated          1/1                 sorintlab/stolon:master-pg10
cnrwul4r4nse        pgsql_pgkeeper2        replicated          1/1                 sorintlab/stolon:master-pg10
frflfnpty7tr        pgsql_pgkeeper3        replicated          1/1                 sorintlab/stolon:master-pg10
x7pqqchi52kq        pgsql_pgsentinel       replicated          3/3                 sorintlab/stolon:master-pg10
mwu2wl8fti4r        pgsql_postgresql       replicated          3/3                 sorintlab/stolon:master-pg10
9hkbe2vksbzb        redis_redis-master     global              3/3                 bitnami/redis:latest           *:6379->6379/tcp
l88zn8cla7dc        redis_redis-replica    replicated          3/3                 bitnami/redis:latest           *:30003->6379/tcp
1utp309xfmsy        redis_redis-sentinel   global              3/3                 bitnami/redis:latest           *:30002->16379/tcp
oteb824ylhyp        registry_registry      replicated          1/1                 registry:2.6
qovrah8nzzu8        traefik_traefik        replicated          3/3                 traefik:latest                 *:80->80/tcp, *:443->443/tcp

ٻيو ڇا بهتر ٿي سگهي ٿو؟ ٽريفڪ کي ترتيب ڏيڻ جي پڪ ڪريو https تي ڪنٽينرز کي هلائڻ لاءِ، پوسٽ گريسڪ ايل ۽ ريڊس لاءِ tls انڪرپشن شامل ڪريو. پر عام طور تي، اهو اڳ ۾ ئي ڊولپرز کي هڪ PoC طور ڏنو وڃي ٿو. اچو ته هاڻي ڏسو Docker جا متبادل.

پوڊيم

ڪنٽينرز کي هلائڻ لاءِ هڪ ٻي چڱيءَ طرح سڃاتل انجڻ پوڊز (پوڊز، ڪنٽينرن جا گروپ گڏ ٿيل آهن). Docker جي برعڪس، ان کي ڪنٽينر هلائڻ لاءِ ڪنهن به خدمت جي ضرورت نه آهي؛ سڀ ڪم ليبپڊ لائبريري ذريعي ڪيو ويندو آهي. گو ۾ پڻ لکيل آهي، ڪنٽينرز کي هلائڻ لاءِ OCI-مطابقت رکندڙ رن ٽائم جي ضرورت آهي، جهڙوڪ runC.

ڊڪر ۽ سڀ ڪجهه، سڀ ڪجهه، سڀ ڪجهه

پوڊمن سان ڪم ڪرڻ عام طور تي ياد ڏياريندو آهي ته ڊاڪر لاءِ ، انهي نقطي تي ته توهان اهو ڪري سگهو ٿا هن وانگر (جيئن چيو ويو آهي ته ڪيترن ئي هن ڪوشش ڪئي آهي ، بشمول هن مضمون جو ليکڪ):

$ alias docker=podman

۽ توهان ڪم جاري رکي سگهو ٿا. عام طور تي، Podman سان صورتحال ڏاڍي دلچسپ آهي، ڇاڪاڻ ته جيڪڏهن ڪبرنيٽس جي شروعاتي نسخن Docker سان ڪم ڪيو، پوء 2015 جي ڀرسان، ڪنٽينرز جي دنيا جي معياري ٿيڻ کان پوء (OCI - Open Container Initiative) ۽ Docker جي تقسيم ڪنٽينر ۽ رن سي ۾، ڪبرنيٽس ۾ هلائڻ لاءِ ڊڪر جو متبادل ترقي ڪري رهيو آهي: CRI-O. Podman ان سلسلي ۾ Docker جو هڪ متبادل آهي، جيڪو Kubernetes جي اصولن تي ٺهيل آهي، جنهن ۾ ڪنٽينرز کي گروپ ڪرڻ شامل آهي، پر منصوبي جو بنيادي مقصد ڊاڪر طرز جي ڪنٽينرز کي بغير اضافي خدمتن جي لانچ ڪرڻ آهي. واضع سببن لاء، ڪو به قسم جو طريقو ناهي، ڇو ته ڊولپر واضح طور تي چون ٿا ته جيڪڏهن توهان کي ڪلستر جي ضرورت آهي، ڪبرنيٽس وٺو.

تنصيب

Centos 7 تي انسٽال ڪرڻ لاء، صرف چالو ڪريو Extras مخزن، ۽ پوء هر شي کي حڪم سان انسٽال ڪريو:

# yum -y install podman

ٻيون خاصيتون

پوڊمان سسٽم لاءِ يونٽ ٺاهي سگھي ٿو، اھڙيءَ طرح سرور ريبوٽ کان پوءِ ڪنٽينر شروع ڪرڻ جو مسئلو حل ڪري سگھي ٿو. اضافي طور تي، سسٽم ڊي کي صحيح طور تي ڪم ڪرڻ جو اعلان ڪيو ويو آهي پيڊ 1 طور تي ڪنٽينر ۾. ڪنٽينرز جي تعمير لاءِ هڪ الڳ بلڊه ٽول آهي، اتي ٽئين پارٽي جا اوزار پڻ آهن - ڊاڪر-ڪمپوز جا اينالاگز، جيڪي ڪبرنيٽس سان مطابقت رکندڙ ڪنفيگريشن فائلون پڻ ٺاهين ٿا، تنهنڪري پوڊمين کان ڪبرنيٽس تائين منتقلي کي جيترو ٿي سگهي آسان ڪيو وڃي ٿو.

Podman سان ڪم

جيئن ته ڪو به سوارم موڊ نه آهي (جيڪڏهن هڪ ڪلستر جي ضرورت هجي ته اسان کي Kubernetes ڏانهن تبديل ڪرڻو پوندو)، اسان ان کي الڳ ڪنٽينرز ۾ گڏ ڪنداسين.

انسٽال ڪريو podman-compose:

# yum -y install python3-pip
# pip3 install podman-compose

پوڊمن لاءِ نتيجو ٺاھڻ واري فائل ٿوري مختلف آھي، تنھنڪري مثال طور اسان کي ھڪڙي الڳ حجم سيڪشن کي سڌو سنئون سيڪشن ڏانھن سروسز سان منتقل ڪرڻو پوندو.

gitlab-podman.yml

version: '3.7'

services:
  gitlab:
    image: gitlab/gitlab-ce:latest
    hostname: gitlab.example.com
    restart: unless-stopped
    environment:
      GITLAB_OMNIBUS_CONFIG: |
        gitlab_rails['gitlab_shell_ssh_port'] = 22222
    ports:
      - "80:80"
      - "22222:22"
    volumes:
      - /srv/podman/gitlab/conf:/etc/gitlab
      - /srv/podman/gitlab/data:/var/opt/gitlab
      - /srv/podman/gitlab/logs:/var/log/gitlab
    networks:
      - gitlab

  gitlab-runner:
    image: gitlab/gitlab-runner:alpine
    restart: unless-stopped
    depends_on:
      - gitlab
    volumes:
      - /srv/podman/gitlab/runner:/etc/gitlab-runner
      - /var/run/docker.sock:/var/run/docker.sock
    networks:
      - gitlab

networks:
  gitlab:

# podman-compose -f gitlab-runner.yml -d up

نتيجو:

# podman ps
CONTAINER ID  IMAGE                                  COMMAND               CREATED             STATUS                 PORTS                                      NAMES
da53da946c01  docker.io/gitlab/gitlab-runner:alpine  run --user=gitlab...  About a minute ago  Up About a minute ago  0.0.0.0:22222->22/tcp, 0.0.0.0:80->80/tcp  root_gitlab-runner_1
781c0103c94a  docker.io/gitlab/gitlab-ce:latest      /assets/wrapper       About a minute ago  Up About a minute ago  0.0.0.0:22222->22/tcp, 0.0.0.0:80->80/tcp  root_gitlab_1

اچو ته ڏسو ته اهو سسٽم ڊي ۽ ڪبرنيٽس لاءِ ڇا ٺاهي ٿو، ان لاءِ اسان کي پوڊ جو نالو يا سڃاڻپ ڳولڻو پوندو:

# podman pod ls
POD ID         NAME   STATUS    CREATED          # OF CONTAINERS   INFRA ID
71fc2b2a5c63   root   Running   11 minutes ago   3                 db40ab8bf84b

ڪبرنيٽس:

# podman generate kube 71fc2b2a5c63
# Generation of Kubernetes YAML is still under development!
#
# Save the output of this file and use kubectl create -f to import
# it into Kubernetes.
#
# Created with podman-1.6.4
apiVersion: v1
kind: Pod
metadata:
  creationTimestamp: "2020-07-29T19:22:40Z"
  labels:
    app: root
  name: root
spec:
  containers:
  - command:
    - /assets/wrapper
    env:
    - name: PATH
      value: /opt/gitlab/embedded/bin:/opt/gitlab/bin:/assets:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin
    - name: TERM
      value: xterm
    - name: HOSTNAME
      value: gitlab.example.com
    - name: container
      value: podman
    - name: GITLAB_OMNIBUS_CONFIG
      value: |
        gitlab_rails['gitlab_shell_ssh_port'] = 22222
    - name: LANG
      value: C.UTF-8
    image: docker.io/gitlab/gitlab-ce:latest
    name: rootgitlab1
    ports:
    - containerPort: 22
      hostPort: 22222
      protocol: TCP
    - containerPort: 80
      hostPort: 80
      protocol: TCP
    resources: {}
    securityContext:
      allowPrivilegeEscalation: true
      capabilities: {}
      privileged: false
      readOnlyRootFilesystem: false
    volumeMounts:
    - mountPath: /var/opt/gitlab
      name: srv-podman-gitlab-data
    - mountPath: /var/log/gitlab
      name: srv-podman-gitlab-logs
    - mountPath: /etc/gitlab
      name: srv-podman-gitlab-conf
    workingDir: /
  - command:
    - run
    - --user=gitlab-runner
    - --working-directory=/home/gitlab-runner
    env:
    - name: PATH
      value: /usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin
    - name: TERM
      value: xterm
    - name: HOSTNAME
    - name: container
      value: podman
    image: docker.io/gitlab/gitlab-runner:alpine
    name: rootgitlab-runner1
    resources: {}
    securityContext:
      allowPrivilegeEscalation: true
      capabilities: {}
      privileged: false
      readOnlyRootFilesystem: false
    volumeMounts:
    - mountPath: /etc/gitlab-runner
      name: srv-podman-gitlab-runner
    - mountPath: /var/run/docker.sock
      name: var-run-docker.sock
    workingDir: /
  volumes:
  - hostPath:
      path: /srv/podman/gitlab/runner
      type: Directory
    name: srv-podman-gitlab-runner
  - hostPath:
      path: /var/run/docker.sock
      type: File
    name: var-run-docker.sock
  - hostPath:
      path: /srv/podman/gitlab/data
      type: Directory
    name: srv-podman-gitlab-data
  - hostPath:
      path: /srv/podman/gitlab/logs
      type: Directory
    name: srv-podman-gitlab-logs
  - hostPath:
      path: /srv/podman/gitlab/conf
      type: Directory
    name: srv-podman-gitlab-conf
status: {}

سسٽم ڊي:

# podman generate systemd 71fc2b2a5c63
# pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
# autogenerated by Podman 1.6.4
# Thu Jul 29 15:23:28 EDT 2020

[Unit]
Description=Podman pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
Documentation=man:podman-generate-systemd(1)
Requires=container-781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3.service container-da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864.service
Before=container-781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3.service container-da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864.service

[Service]
Restart=on-failure
ExecStart=/usr/bin/podman start db40ab8bf84bf35141159c26cb6e256b889c7a98c0418eee3c4aa683c14fccaa
ExecStop=/usr/bin/podman stop -t 10 db40ab8bf84bf35141159c26cb6e256b889c7a98c0418eee3c4aa683c14fccaa
KillMode=none
Type=forking
PIDFile=/var/run/containers/storage/overlay-containers/db40ab8bf84bf35141159c26cb6e256b889c7a98c0418eee3c4aa683c14fccaa/userdata/conmon.pid

[Install]
WantedBy=multi-user.target
# container-da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864.service
# autogenerated by Podman 1.6.4
# Thu Jul 29 15:23:28 EDT 2020

[Unit]
Description=Podman container-da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864.service
Documentation=man:podman-generate-systemd(1)
RefuseManualStart=yes
RefuseManualStop=yes
BindsTo=pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
After=pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service

[Service]
Restart=on-failure
ExecStart=/usr/bin/podman start da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864
ExecStop=/usr/bin/podman stop -t 10 da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864
KillMode=none
Type=forking
PIDFile=/var/run/containers/storage/overlay-containers/da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864/userdata/conmon.pid

[Install]
WantedBy=multi-user.target
# container-781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3.service
# autogenerated by Podman 1.6.4
# Thu Jul 29 15:23:28 EDT 2020

[Unit]
Description=Podman container-781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3.service
Documentation=man:podman-generate-systemd(1)
RefuseManualStart=yes
RefuseManualStop=yes
BindsTo=pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
After=pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service

[Service]
Restart=on-failure
ExecStart=/usr/bin/podman start 781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3
ExecStop=/usr/bin/podman stop -t 10 781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3
KillMode=none
Type=forking
PIDFile=/var/run/containers/storage/overlay-containers/781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3/userdata/conmon.pid

[Install]
WantedBy=multi-user.target

بدقسمتي سان، ڪنٽينرز کي لانچ ڪرڻ کان سواء، سسٽم لاء ٺاهيل يونٽ ٻيو ڪجهه نٿو ڪري (مثال طور، پراڻي ڪنٽينرز کي صاف ڪرڻ جڏهن اهڙي سروس ٻيهر شروع ٿئي ٿي)، تنهنڪري توهان کي اهڙيون شيون پاڻ کي لکڻو پوندو.

اصول ۾، Podman ڪافي آهي ڪوشش ڪرڻ لاءِ ته ڪھڙا ڪنٽينر آھن، ڊاڪر ڪمپوز لاءِ پراڻن ترتيبن کي منتقل ڪريو، ۽ پوءِ Kubernetes ڏانھن وڃو، جيڪڏھن توھان کي ڪلستر جي ضرورت آھي، يا Docker لاءِ استعمال ۾ آسان متبادل حاصل ڪريو.

ريڪٽ

پروجيڪٽ آرڪائيوز ۾ ويو اٽڪل ڇهه مهينا اڳ حقيقت اها آهي ته RedHat ان کي خريد ڪيو، تنهنڪري مان ان تي وڌيڪ تفصيل سان نه رهندس. مجموعي طور تي، اهو هڪ تمام سٺو تاثر ڇڏيو، پر ڊڪرر ۽ خاص طور تي پوڊمن جي مقابلي ۾، اهو ڏسڻ ۾ اچي ٿو هڪ گڏيل. Rkt جي چوٽي تي ٺهيل هڪ CoreOS تقسيم پڻ هئي (جيتوڻيڪ اهي اصل ۾ ڊاکر هئا)، پر اهو پڻ RedHat خريداري کان پوء حمايت ۾ ختم ٿي ويو.

پلاش

وڌيڪ هڪ منصوبو، جنهن جو ليکڪ صرف ڪنٽينر ٺاهڻ ۽ هلائڻ چاهي ٿو. دستاويزن ۽ ڪوڊ پاران فيصلو ڪندي، ليکڪ معيار جي پيروي نه ڪئي، پر صرف پنهنجي عمل کي لکڻ جو فيصلو ڪيو، جيڪو، اصول ۾، هن ڪيو.

پهچڻ

ڪبرنيٽس جي صورتحال ڏاڍي دلچسپ آهي: هڪ طرف، ڊڪر سان توهان هڪ ڪلستر ٺاهي سگهو ٿا (سوارم موڊ ۾)، جنهن سان توهان گراهڪن لاءِ پراڊڪٽ ماحول به هلائي سگهو ٿا، اهو خاص طور تي ننڍين ٽيمن لاءِ صحيح آهي (3-5 ماڻهو) ، يا ٿورڙي مجموعي لوڊ سان، يا ڪبرنيٽس قائم ڪرڻ جي پيچيدگين کي سمجھڻ جي خواهش جي کوٽ، بشمول وڌيڪ لوڊ لاءِ.

Podman مڪمل مطابقت مهيا نٿو ڪري، پر ان ۾ ھڪڙو اھم فائدو آھي - ڪبرنيٽس سان مطابقت، اضافي اوزار سميت (بلڊ ۽ ٻيا). تنهن ڪري، مان ڪم لاءِ اوزار جي چونڊ کي هن ريت سمجهندس: ننڍين ٽيمن لاءِ، يا محدود بجيٽ سان - ڊڪر (ممڪن سوارم موڊ سان)، پنهنجي لاءِ ذاتي لوڪل هوسٽ تي ترقي ڪرڻ لاءِ - پوڊمين ڪامريڊ، ۽ هر ڪنهن لاءِ - ڪبرنيٽس.

مون کي پڪ ناهي ته Docker سان صورتحال مستقبل ۾ تبديل نه ٿيندي، سڀ کان پوء، اهي پائيدار آهن، ۽ پڻ تدريجي طور تي قدم قدم کي معياري ڪيو پيو وڃي، پر پوڊمن، ان جي سڀني گهٽتائي لاء (صرف لينڪس تي ڪم ڪري ٿو، ڪو به ڪلستر نه، اسيمبلي ۽ ٻيا ڪارناما ٽئين پارٽي حل آهن) مستقبل واضح آهي، تنهن ڪري مان هر ڪنهن کي دعوت ڏيان ٿو انهن نتيجن تي تبصرن ۾ بحث ڪرڻ لاء.

پي ايس 3 آگسٽ تي اسان لانچ ڪنداسين "Docker وڊيو ڪورس"، جتي توهان هن جي ڪم بابت وڌيڪ ڄاڻو ٿا. اسان ان جي سڀني اوزارن جو تجزيو ڪنداسين: بنيادي تجزين کان نيٽ ورڪ پيٽرولر تائين، مختلف آپريٽنگ سسٽم ۽ پروگرامنگ ٻولين سان ڪم ڪرڻ جي nuances. توهان ٽيڪنالاجي کان واقف ٿي ويندا ۽ سمجھندا ته ڪٿي ۽ ڪيئن استعمال ڪجي بهترين ڊڪر. اسان بھترين مشق ڪيس پڻ شيئر ڪنداسين.

رليز کان اڳ پري آرڊر جي قيمت: 5000 RUB. توهان ڏسي سگهو ٿا Docker وڊيو ڪورس پروگرام ڪورس جي صفحي تي.

جو ذريعو: www.habr.com

تبصرو شامل ڪريو