TL;DR: አፕሊኬሽኖችን በኮንቴይነር ውስጥ ለማሄድ ማዕቀፎችን ለማነፃፀር የአጠቃላይ እይታ መመሪያ። የዶከር እና ሌሎች ተመሳሳይ ስርዓቶች አቅም ግምት ውስጥ ይገባል.
ሁሉም ከየት እንደመጣ ትንሽ ታሪክ
История
መተግበሪያን ለማግለል የመጀመሪያው የታወቀ ዘዴ chroot ነው። ተመሳሳይ ስም ያለው የስርዓት ጥሪ የስር ማውጫው መቀየሩን ያረጋግጣል - ስለዚህ የጠራው ፕሮግራም በዚያ ማውጫ ውስጥ ያሉ ፋይሎችን ብቻ ማግኘት እንደሚችል ያረጋግጣል። ነገር ግን አንድ ፕሮግራም የስር መብቶች ከውስጥ ከተሰጠ፣ ክሮትን “ማምለጥ” እና ወደ ዋናው ኦፕሬቲንግ ሲስተም ሊገባ ይችላል። እንዲሁም የስር ማውጫውን ከመቀየር በተጨማሪ ሌሎች ሀብቶች (ራም ፣ ፕሮሰሰር) እንዲሁም የአውታረ መረብ መዳረሻ አይገደቡም።
የሚቀጥለው ዘዴ የስርዓተ ክወናው የከርነል ስልቶችን በመጠቀም በእቃ መያዣ ውስጥ ሙሉ ለሙሉ ኦፕሬቲንግ ሲስተም ማስጀመር ነው። ይህ ዘዴ በተለያዩ ኦፕሬቲንግ ሲስተሞች ውስጥ በተለየ መንገድ ይጠራል, ነገር ግን ዋናው ነገር አንድ አይነት ነው - በርካታ ገለልተኛ ስርዓተ ክወናዎችን ማስጀመር, እያንዳንዱም ዋናው ኦፕሬቲንግ ሲስተም የሚሠራበት አንድ አይነት ከርነል ይሠራል. እነዚህም FreeBSD Jails፣ Solaris Zones፣ OpenVZ እና LXC ለሊኑክስ ያካትታሉ። ማግለል የሚረጋገጠው በዲስክ ቦታ ብቻ ሳይሆን በሌሎች ሃብቶችም ጭምር ነው፤በተለይ እያንዳንዱ ኮንቴይነር በአቀነባባሪ ጊዜ፣በ RAM እና በኔትወርክ የመተላለፊያ ይዘት ላይ ገደብ ሊኖረው ይችላል። ከ chroot ጋር ሲወዳደር መያዣውን መልቀቅ የበለጠ ከባድ ነው ፣ ምክንያቱም በመያዣው ውስጥ ያለው ሱፐርዩዘር የመያዣውን ይዘት ብቻ ማግኘት ስለሚችል ፣ነገር ግን በማሸጊያው ውስጥ ያለውን ስርዓተ ክወና ወቅታዊ ማድረግ ስለሚያስፈልገው እና የቆዩ ስሪቶች አጠቃቀም። የከርነል (ለሊኑክስ አግባብነት ያለው፣ በመጠኑም ቢሆን FreeBSD) የከርነል ማግለል ስርዓቱን “መስበር” እና ወደ ዋናው ኦፕሬቲንግ ሲስተም የመግባት እድሉ ዜሮ ያልሆነ ነው።
በኮንቴይነር ውስጥ የተሟላ ኦፕሬቲንግ ሲስተም (በመነሻ ስርዓት ፣ የጥቅል አስተዳዳሪ ፣ ወዘተ) ከመጀመር ይልቅ ወዲያውኑ መተግበሪያዎችን ማስጀመር ይችላሉ ፣ ዋናው ነገር አፕሊኬሽኑን እንደዚህ ዓይነት እድል መስጠት ነው (አስፈላጊው ቤተ-መጽሐፍት መኖር) እና ሌሎች ፋይሎች). ይህ ሃሳብ ለኮንቴይነር ትግበራ ቨርቹዋልነት መሰረት ሆኖ አገልግሏል፣ በጣም ታዋቂው እና ታዋቂው ተወካይ ዶከር ነው። ከቀደምት ስርዓቶች ጋር ሲነፃፀር የበለጠ ተለዋዋጭ የማግለል ዘዴዎች ፣ በመያዣዎች እና በመያዣው ውስጥ ባለው የመተግበሪያ ሁኔታ መከታተያ መካከል ለምናባዊ አውታረ መረቦች አብሮ በተሰራ ድጋፍ ፣ መያዣዎችን ለማሄድ ከብዙ አካላዊ አገልጋዮች አንድ ወጥ አካባቢ የመገንባት ችሎታ አስገኝቷል - በእጅ ሀብት አስተዳደር ሳያስፈልግ.
Docker
ዶከር በጣም ታዋቂው የመተግበሪያ መያዣ ሶፍትዌር ነው። በ Go ቋንቋ የተፃፈው የዲስክ ቦታን ለመቆጠብ የሊኑክስ ከርነል መደበኛ ባህሪያትን - ቡድኖችን ፣ስም ቦታዎችን ፣አቅምን ፣ወዘተ.እንዲሁም Aufs ፋይል ስርዓቶችን እና ሌሎችንም ይጠቀማል።
ምንጭ፡ wikimedia
ሥነ ሕንፃ
ከስሪት 1.11 በፊት፣ ዶከር ሁሉንም ስራዎች ከመያዣዎች ጋር የሚያከናውን ነጠላ አገልግሎት ሆኖ ሰርቷል፡ ምስሎችን ለመያዣዎች ማውረድ፣ ኮንቴይነሮችን ማስጀመር፣ የኤፒአይ ጥያቄዎችን ማካሄድ። ከስሪት 1.11 ጀምሮ ፣ ዶከር እርስ በእርሱ የሚግባቡ በርካታ ክፍሎች ተከፍሏል-በመያዣ ፣ በመያዣው ውስጥ ሙሉውን የሕይወት ዑደት ለማካሄድ (የዲስክ ቦታን መመደብ ፣ ምስሎችን ማውረድ ፣ ከአውታረ መረቡ ጋር መሥራት ፣ የመያዣዎችን ሁኔታ መጫን ፣ መጫን እና መከታተል) እና runC, የኮንቴይነር ማስፈጸሚያ አካባቢ, በቡድን እና ሌሎች የሊኑክስ ከርነል ባህሪያት ላይ በመመስረት. የመትከያ አገልግሎቱ ራሱ ይቀራል፣ አሁን ግን ወደ መያዣ የተተረጎሙ የኤፒአይ ጥያቄዎችን ለማስኬድ ብቻ ያገለግላል።
ጭነት እና ውቅር
ዶከርን ለመጫን የምወደው መንገድ ዶከር-ማሽን ነው፣ ይህ ደግሞ በርቀት አገልጋዮች ላይ (የተለያዩ ደመናዎችን ጨምሮ) ዶከርን በቀጥታ ከመጫን እና ከማዋቀር በተጨማሪ ከርቀት አገልጋዮች የፋይል ስርዓቶች ጋር አብሮ ለመስራት እና የተለያዩ ትዕዛዞችን ማስኬድ የሚችል ነው።
ይሁን እንጂ ከ 2018 ጀምሮ ፕሮጀክቱ እምብዛም አልተሰራም, ስለዚህ ለአብዛኛው የሊኑክስ ስርጭቶች በመደበኛ መንገድ እንጭነዋለን - ማጠራቀሚያ ማከል እና አስፈላጊዎቹን ፓኬጆች መትከል.
ይህ ዘዴ ለራስ-ሰር ጭነት ፣ ለምሳሌ Ansible ወይም ሌሎች ተመሳሳይ ስርዓቶችን በመጠቀም ጥቅም ላይ ይውላል ፣ ግን በዚህ ጽሑፍ ውስጥ አላስብም።
መጫኑ በሴንቶስ 7 ላይ ይከናወናል ፣ እኔ ለመጫን ምናባዊ ማሽንን እንደ አገልጋይ እጠቀማለሁ ፣ ለመጫን ከዚህ በታች ያሉትን ትዕዛዞችን ብቻ ያሂዱ ።
# yum install -y yum-utils
# yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo
# yum install docker-ce docker-ce-cli containerd.io
ከተጫነ በኋላ አገልግሎቱን መጀመር እና በጅምር ውስጥ ማስቀመጥ ያስፈልግዎታል:
# systemctl enable docker
# systemctl start docker
# firewall-cmd --zone=public --add-port=2377/tcp --permanent
በተጨማሪም፣ የመትከያ ቡድን መፍጠር ትችላለህ፣ ተጠቃሚዎቹ ያለ ሱዶ ከዶከር ጋር መስራት፣ ምዝግብ ማስታወሻ ማዘጋጀት፣ ከውጪ የኤፒአይ መዳረሻን ማንቃት እና ፋየርዎልን በትክክል ማዋቀርን እንዳትረሳ (ያልተፈቀደውን ሁሉ) ከላይ እና ከታች ባሉት ምሳሌዎች ውስጥ የተከለከለ ነው - ይህንን ለቀላል እና ግልጽነት ተውኩት) ግን እዚህ የበለጠ ዝርዝር ውስጥ አልገባም።
ሌሎች ባህሪያት
ከላይ ከተጠቀሰው ዶከር ማሽን በተጨማሪ ዶከር ሬጅስትሪ፣ ለኮንቴይነሮች ምስሎችን ለማከማቸት መሳሪያ፣ እንዲሁም ዶከር ኮምፓስ፣ በኮንቴይነሮች ውስጥ ያሉ አፕሊኬሽኖችን አውቶማቲክ ለማድረግ የሚያስችል መሳሪያ፣ YAML ፋይሎች ኮንቴይነሮችን ለመስራት እና ለማዋቀር ያገለግላሉ። እና ሌሎች ተዛማጅ ነገሮች (ለምሳሌ ኔትወርኮች፣ ቋሚ የፋይል ስርዓቶች ለማከማቻ ውሂብ)።
እንዲሁም ለ CICD ማጓጓዣዎችን ለማደራጀት ጥቅም ላይ ሊውል ይችላል. ሌላው አስደሳች ባህሪ በክላስተር ሁነታ እየሰራ ነው, ስዋርድ ሁነታ ተብሎ የሚጠራው (ከ 1.12 ስሪት በፊት ዶከር መንጋ ተብሎ ይጠራ ነበር), ይህም ኮንቴይነሮችን ለማሄድ ከብዙ አገልጋዮች አንድ ነጠላ መሠረተ ልማት ለመሰብሰብ ያስችልዎታል. በሁሉም አገልጋዮች ላይ ለምናባዊ አውታረመረብ ድጋፍ አለ ፣ አብሮ የተሰራ የጭነት ሚዛን ፣ እንዲሁም ለመያዣዎች ምስጢሮች ድጋፍ አለ።
የ YAML ፋይሎች ከዶከር አዘጋጅ፣ ከጥቃቅን ማሻሻያዎች ጋር፣ ለእንደዚህ ዓይነቶቹ ስብስቦች ጥቅም ላይ ሊውሉ ይችላሉ፣ ጥቃቅን እና መካከለኛ መጠን ያላቸውን ስብስቦች ለተለያዩ ዓላማዎች ማቆየት ይችላሉ። ለትልቅ ክላስተር ኩበርኔትስ ተመራጭ ነው ምክንያቱም የ swarm mode የጥገና ወጪዎች ከኩበርኔትስ ሊበልጥ ስለሚችል። ከ runC በተጨማሪ, ለምሳሌ እንደ መያዣው ማስፈጸሚያ አካባቢን መጫን ይችላሉ
ከዶከር ጋር በመስራት ላይ
ከተጫነን እና ከተዋቀረ በኋላ ለልማት ቡድን GitLab እና Docker Registry የምናሰማራበት ክላስተር ለመሰብሰብ እንሞክራለን። ሶስት ቨርቹዋል ማሽኖችን እንደ አገልጋይ እጠቀማለሁ ፣በዚህም በተጨማሪ የተከፋፈለውን FS GlusterFS አሰማራለሁ ። እንደ ዶከር ጥራዞች ማከማቻ እጠቀማለሁ ፣ለምሳሌ ፣ስህተትን የሚቋቋም የዶክ መዝገብ ቤት ስሪት ለማስኬድ። የሚሄዱ ቁልፍ ክፍሎች፡ Docker Registry፣ Postgresql፣ Redis፣ GitLab በ Swarm አናት ላይ ለ GitLab Runner ድጋፍ። Postgresqlን በክላስተር እንጀምራለን።
GlusterFSን በሁሉም አገልጋዮች ላይ ለማሰማራት (እነሱ node1፣ node2፣ node3 ይባላሉ)፣ ፓኬጆችን መጫን፣ ፋየርዎልን ማንቃት እና አስፈላጊዎቹን ማውጫዎች መፍጠር ያስፈልግዎታል።
# yum -y install centos-release-gluster7
# yum -y install glusterfs-server
# systemctl enable glusterd
# systemctl start glusterd
# firewall-cmd --add-service=glusterfs --permanent
# firewall-cmd --reload
# mkdir -p /srv/gluster
# mkdir -p /srv/docker
# echo "$(hostname):/docker /srv/docker glusterfs defaults,_netdev 0 0" >> /etc/fstab
ከተጫነ በኋላ GlusterFSን የማዋቀር ስራ ከአንድ መስቀለኛ መንገድ መቀጠል አለበት ለምሳሌ node1፡
# gluster peer probe node2
# gluster peer probe node3
# gluster volume create docker replica 3 node1:/srv/gluster node2:/srv/gluster node3:/srv/gluster force
# gluster volume start docker
ከዚያ የተገኘውን ድምጽ መጫን ያስፈልግዎታል (ትዕዛዙ በሁሉም አገልጋዮች ላይ መከናወን አለበት)
# mount /srv/docker
የመንጋው ሞድ በአንደኛው አገልጋይ ላይ ተዋቅሯል ፣ እሱም መሪ ይሆናል ፣ የተቀረው ክላስተር መቀላቀል አለበት ፣ ስለሆነም በመጀመሪያው አገልጋይ ላይ ያለውን ትዕዛዝ የማስፈፀም ውጤት በሌሎች ላይ መቅዳት እና መፈፀም ያስፈልጋል ።
የመጀመሪያ ክላስተር ማዋቀር፣ ትዕዛዙን በ node1 ላይ አሂዳለሁ፡-
# docker swarm init
Swarm initialized: current node (a5jpfrh5uvo7svzz1ajduokyq) is now a manager.
To add a worker to this swarm, run the following command:
docker swarm join --token SWMTKN-1-0c5mf7mvzc7o7vjk0wngno2dy70xs95tovfxbv4tqt9280toku-863hyosdlzvd76trfptd4xnzd xx.xx.xx.xx:2377
To add a manager to this swarm, run 'docker swarm join-token manager' and follow the instructions.
# docker swarm join-token manager
የሁለተኛውን ትዕዛዝ ውጤት ቀድተን በ node2 እና node3 ላይ እናስፈጽማለን-
# docker swarm join --token SWMTKN-x-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx-xxxxxxxxx xx.xx.xx.xx:2377
This node joined a swarm as a manager.
በዚህ ጊዜ የአገልጋዮቹ የመጀመሪያ ደረጃ ውቅር ተጠናቅቋል ፣ አገልግሎቶቹን ወደ ማዋቀሩ እንቀጥላለን ፣ በሌላ መልኩ ካልተገለጸ በስተቀር የሚከናወኑት ትዕዛዞች ከ node1 ይጀምራሉ።
በመጀመሪያ ፣ ለመያዣዎች አውታረ መረቦችን እንፍጠር ።
# docker network create --driver=overlay etcd
# docker network create --driver=overlay pgsql
# docker network create --driver=overlay redis
# docker network create --driver=overlay traefik
# docker network create --driver=overlay gitlab
ከዚያ በአገልጋዮቹ ላይ ምልክት እናደርጋለን ፣ አንዳንድ አገልግሎቶችን ከአገልጋዮቹ ጋር ለማገናኘት ይህ አስፈላጊ ነው-
# docker node update --label-add nodename=node1 node1
# docker node update --label-add nodename=node2 node2
# docker node update --label-add nodename=node3 node3
በመቀጠል, ለ Traefik እና Stolon የሚያስፈልገው ወዘተd ውሂብን, KV ማከማቻን ለማከማቸት ማውጫዎችን እንፈጥራለን. ከ Postgresql ጋር ተመሳሳይ፣ እነዚህ ከአገልጋዮች ጋር የተሳሰሩ መያዣዎች ይሆናሉ፣ ስለዚህ ይህን ትዕዛዝ በሁሉም አገልጋዮች ላይ እናስኬዳለን፡
# mkdir -p /srv/etcd
በመቀጠል ወዘተን ለማዋቀር ፋይል ይፍጠሩ እና ይጠቀሙበት፡-
00ወዘተ.yml
version: '3.7'
services:
etcd1:
image: quay.io/coreos/etcd:latest
hostname: etcd1
command:
- etcd
- --name=etcd1
- --data-dir=/data.etcd
- --advertise-client-urls=http://etcd1:2379
- --listen-client-urls=http://0.0.0.0:2379
- --initial-advertise-peer-urls=http://etcd1:2380
- --listen-peer-urls=http://0.0.0.0:2380
- --initial-cluster=etcd1=http://etcd1:2380,etcd2=http://etcd2:2380,etcd3=http://etcd3:2380
- --initial-cluster-state=new
- --initial-cluster-token=etcd-cluster
networks:
- etcd
volumes:
- etcd1vol:/data.etcd
deploy:
replicas: 1
placement:
constraints: [node.labels.nodename == node1]
etcd2:
image: quay.io/coreos/etcd:latest
hostname: etcd2
command:
- etcd
- --name=etcd2
- --data-dir=/data.etcd
- --advertise-client-urls=http://etcd2:2379
- --listen-client-urls=http://0.0.0.0:2379
- --initial-advertise-peer-urls=http://etcd2:2380
- --listen-peer-urls=http://0.0.0.0:2380
- --initial-cluster=etcd1=http://etcd1:2380,etcd2=http://etcd2:2380,etcd3=http://etcd3:2380
- --initial-cluster-state=new
- --initial-cluster-token=etcd-cluster
networks:
- etcd
volumes:
- etcd2vol:/data.etcd
deploy:
replicas: 1
placement:
constraints: [node.labels.nodename == node2]
etcd3:
image: quay.io/coreos/etcd:latest
hostname: etcd3
command:
- etcd
- --name=etcd3
- --data-dir=/data.etcd
- --advertise-client-urls=http://etcd3:2379
- --listen-client-urls=http://0.0.0.0:2379
- --initial-advertise-peer-urls=http://etcd3:2380
- --listen-peer-urls=http://0.0.0.0:2380
- --initial-cluster=etcd1=http://etcd1:2380,etcd2=http://etcd2:2380,etcd3=http://etcd3:2380
- --initial-cluster-state=new
- --initial-cluster-token=etcd-cluster
networks:
- etcd
volumes:
- etcd3vol:/data.etcd
deploy:
replicas: 1
placement:
constraints: [node.labels.nodename == node3]
volumes:
etcd1vol:
driver: local
driver_opts:
type: none
o: bind
device: "/srv/etcd"
etcd2vol:
driver: local
driver_opts:
type: none
o: bind
device: "/srv/etcd"
etcd3vol:
driver: local
driver_opts:
type: none
o: bind
device: "/srv/etcd"
networks:
etcd:
external: true
# docker stack deploy --compose-file 00etcd.yml etcd
ከተወሰነ ጊዜ በኋላ የ etcd ዘለላ መነሳቱን እናረጋግጣለን።
# docker exec $(docker ps | awk '/etcd/ {print $1}') etcdctl member list
ade526d28b1f92f7: name=etcd1 peerURLs=http://etcd1:2380 clientURLs=http://etcd1:2379 isLeader=false
bd388e7810915853: name=etcd3 peerURLs=http://etcd3:2380 clientURLs=http://etcd3:2379 isLeader=false
d282ac2ce600c1ce: name=etcd2 peerURLs=http://etcd2:2380 clientURLs=http://etcd2:2379 isLeader=true
# docker exec $(docker ps | awk '/etcd/ {print $1}') etcdctl cluster-health
member ade526d28b1f92f7 is healthy: got healthy result from http://etcd1:2379
member bd388e7810915853 is healthy: got healthy result from http://etcd3:2379
member d282ac2ce600c1ce is healthy: got healthy result from http://etcd2:2379
cluster is healthy
ለ Postgresql ማውጫዎችን እንፈጥራለን ፣ ትዕዛዙን በሁሉም አገልጋዮች ላይ እናስፈጽማለን-
# mkdir -p /srv/pgsql
በመቀጠል Postgresqlን ለማዋቀር ፋይል ይፍጠሩ፡
01pgsql.yml
version: '3.7'
services:
pgsentinel:
image: sorintlab/stolon:master-pg10
command:
- gosu
- stolon
- stolon-sentinel
- --cluster-name=stolon-cluster
- --store-backend=etcdv3
- --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
- --log-level=debug
networks:
- etcd
- pgsql
deploy:
replicas: 3
update_config:
parallelism: 1
delay: 30s
order: stop-first
failure_action: pause
pgkeeper1:
image: sorintlab/stolon:master-pg10
hostname: pgkeeper1
command:
- gosu
- stolon
- stolon-keeper
- --pg-listen-address=pgkeeper1
- --pg-repl-username=replica
- --uid=pgkeeper1
- --pg-su-username=postgres
- --pg-su-passwordfile=/run/secrets/pgsql
- --pg-repl-passwordfile=/run/secrets/pgsql_repl
- --data-dir=/var/lib/postgresql/data
- --cluster-name=stolon-cluster
- --store-backend=etcdv3
- --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
networks:
- etcd
- pgsql
environment:
- PGDATA=/var/lib/postgresql/data
volumes:
- pgkeeper1:/var/lib/postgresql/data
secrets:
- pgsql
- pgsql_repl
deploy:
replicas: 1
placement:
constraints: [node.labels.nodename == node1]
pgkeeper2:
image: sorintlab/stolon:master-pg10
hostname: pgkeeper2
command:
- gosu
- stolon
- stolon-keeper
- --pg-listen-address=pgkeeper2
- --pg-repl-username=replica
- --uid=pgkeeper2
- --pg-su-username=postgres
- --pg-su-passwordfile=/run/secrets/pgsql
- --pg-repl-passwordfile=/run/secrets/pgsql_repl
- --data-dir=/var/lib/postgresql/data
- --cluster-name=stolon-cluster
- --store-backend=etcdv3
- --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
networks:
- etcd
- pgsql
environment:
- PGDATA=/var/lib/postgresql/data
volumes:
- pgkeeper2:/var/lib/postgresql/data
secrets:
- pgsql
- pgsql_repl
deploy:
replicas: 1
placement:
constraints: [node.labels.nodename == node2]
pgkeeper3:
image: sorintlab/stolon:master-pg10
hostname: pgkeeper3
command:
- gosu
- stolon
- stolon-keeper
- --pg-listen-address=pgkeeper3
- --pg-repl-username=replica
- --uid=pgkeeper3
- --pg-su-username=postgres
- --pg-su-passwordfile=/run/secrets/pgsql
- --pg-repl-passwordfile=/run/secrets/pgsql_repl
- --data-dir=/var/lib/postgresql/data
- --cluster-name=stolon-cluster
- --store-backend=etcdv3
- --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
networks:
- etcd
- pgsql
environment:
- PGDATA=/var/lib/postgresql/data
volumes:
- pgkeeper3:/var/lib/postgresql/data
secrets:
- pgsql
- pgsql_repl
deploy:
replicas: 1
placement:
constraints: [node.labels.nodename == node3]
postgresql:
image: sorintlab/stolon:master-pg10
command: gosu stolon stolon-proxy --listen-address 0.0.0.0 --cluster-name stolon-cluster --store-backend=etcdv3 --store-endpoints http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
networks:
- etcd
- pgsql
deploy:
replicas: 3
update_config:
parallelism: 1
delay: 30s
order: stop-first
failure_action: rollback
volumes:
pgkeeper1:
driver: local
driver_opts:
type: none
o: bind
device: "/srv/pgsql"
pgkeeper2:
driver: local
driver_opts:
type: none
o: bind
device: "/srv/pgsql"
pgkeeper3:
driver: local
driver_opts:
type: none
o: bind
device: "/srv/pgsql"
secrets:
pgsql:
file: "/srv/docker/postgres"
pgsql_repl:
file: "/srv/docker/replica"
networks:
etcd:
external: true
pgsql:
external: true
ምስጢሮችን እንፈጥራለን እና ፋይሉን እንጠቀማለን-
# </dev/urandom tr -dc 234567890qwertyuopasdfghjkzxcvbnmQWERTYUPASDFGHKLZXCVBNM | head -c $(((RANDOM%3)+15)) > /srv/docker/replica
# </dev/urandom tr -dc 234567890qwertyuopasdfghjkzxcvbnmQWERTYUPASDFGHKLZXCVBNM | head -c $(((RANDOM%3)+15)) > /srv/docker/postgres
# docker stack deploy --compose-file 01pgsql.yml pgsql
ከተወሰነ ጊዜ በኋላ (የትእዛዝን ውጤት ይመልከቱ ዶከር አገልግሎት lsሁሉም አገልግሎቶች መጨረሳቸውን) የ Postgresql ክላስተርን እናስጀምራለን፡-
# docker exec $(docker ps | awk '/pgkeeper/ {print $1}') stolonctl --cluster-name=stolon-cluster --store-backend=etcdv3 --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379 init
የ Postgresql ክላስተር ዝግጁነት ማረጋገጥ፡-
# docker exec $(docker ps | awk '/pgkeeper/ {print $1}') stolonctl --cluster-name=stolon-cluster --store-backend=etcdv3 --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379 status
=== Active sentinels ===
ID LEADER
26baa11d false
74e98768 false
a8cb002b true
=== Active proxies ===
ID
4d233826
9f562f3b
b0c79ff1
=== Keepers ===
UID HEALTHY PG LISTENADDRESS PG HEALTHY PG WANTEDGENERATION PG CURRENTGENERATION
pgkeeper1 true pgkeeper1:5432 true 2 2
pgkeeper2 true pgkeeper2:5432 true 2 2
pgkeeper3 true pgkeeper3:5432 true 3 3
=== Cluster Info ===
Master Keeper: pgkeeper3
===== Keepers/DB tree =====
pgkeeper3 (master)
├─pgkeeper2
└─pgkeeper1
የውጭ መያዣዎችን መዳረሻ ለመክፈት ትራፊክን እናዋቅራለን፡-
03traefik.yml
version: '3.7'
services:
traefik:
image: traefik:latest
command: >
--log.level=INFO
--providers.docker=true
--entryPoints.web.address=:80
--providers.providersThrottleDuration=2
--providers.docker.watch=true
--providers.docker.swarmMode=true
--providers.docker.swarmModeRefreshSeconds=15s
--providers.docker.exposedbydefault=false
--accessLog.bufferingSize=0
--api=true
--api.dashboard=true
--api.insecure=true
networks:
- traefik
ports:
- 80:80
volumes:
- /var/run/docker.sock:/var/run/docker.sock
deploy:
replicas: 3
placement:
constraints:
- node.role == manager
preferences:
- spread: node.id
labels:
- traefik.enable=true
- traefik.http.routers.traefik.rule=Host(`traefik.example.com`)
- traefik.http.services.traefik.loadbalancer.server.port=8080
- traefik.docker.network=traefik
networks:
traefik:
external: true
# docker stack deploy --compose-file 03traefik.yml traefik
Redis ክላስተርን እናስጀምራለን፣ ይህንን ለማድረግ በሁሉም አንጓዎች ላይ የማከማቻ ማውጫ እንፈጥራለን፡
# mkdir -p /srv/redis
05redis.yml
version: '3.7'
services:
redis-master:
image: 'bitnami/redis:latest'
networks:
- redis
ports:
- '6379:6379'
environment:
- REDIS_REPLICATION_MODE=master
- REDIS_PASSWORD=xxxxxxxxxxx
deploy:
mode: global
restart_policy:
condition: any
volumes:
- 'redis:/opt/bitnami/redis/etc/'
redis-replica:
image: 'bitnami/redis:latest'
networks:
- redis
ports:
- '6379'
depends_on:
- redis-master
environment:
- REDIS_REPLICATION_MODE=slave
- REDIS_MASTER_HOST=redis-master
- REDIS_MASTER_PORT_NUMBER=6379
- REDIS_MASTER_PASSWORD=xxxxxxxxxxx
- REDIS_PASSWORD=xxxxxxxxxxx
deploy:
mode: replicated
replicas: 3
update_config:
parallelism: 1
delay: 10s
restart_policy:
condition: any
redis-sentinel:
image: 'bitnami/redis:latest'
networks:
- redis
ports:
- '16379'
depends_on:
- redis-master
- redis-replica
entrypoint: |
bash -c 'bash -s <<EOF
"/bin/bash" -c "cat <<EOF > /opt/bitnami/redis/etc/sentinel.conf
port 16379
dir /tmp
sentinel monitor master-node redis-master 6379 2
sentinel down-after-milliseconds master-node 5000
sentinel parallel-syncs master-node 1
sentinel failover-timeout master-node 5000
sentinel auth-pass master-node xxxxxxxxxxx
sentinel announce-ip redis-sentinel
sentinel announce-port 16379
EOF"
"/bin/bash" -c "redis-sentinel /opt/bitnami/redis/etc/sentinel.conf"
EOF'
deploy:
mode: global
restart_policy:
condition: any
volumes:
redis:
driver: local
driver_opts:
type: 'none'
o: 'bind'
device: "/srv/redis"
networks:
redis:
external: true
# docker stack deploy --compose-file 05redis.yml redis
Docker መዝገብ ቤት አክል፡
06registry.yml
version: '3.7'
services:
registry:
image: registry:2.6
networks:
- traefik
volumes:
- registry_data:/var/lib/registry
deploy:
replicas: 1
placement:
constraints: [node.role == manager]
restart_policy:
condition: on-failure
labels:
- traefik.enable=true
- traefik.http.routers.registry.rule=Host(`registry.example.com`)
- traefik.http.services.registry.loadbalancer.server.port=5000
- traefik.docker.network=traefik
volumes:
registry_data:
driver: local
driver_opts:
type: none
o: bind
device: "/srv/docker/registry"
networks:
traefik:
external: true
# mkdir /srv/docker/registry
# docker stack deploy --compose-file 06registry.yml registry
እና በመጨረሻም - GitLab:
08gitlab-ሯጭ.yml
version: '3.7'
services:
gitlab:
image: gitlab/gitlab-ce:latest
networks:
- pgsql
- redis
- traefik
- gitlab
ports:
- 22222:22
environment:
GITLAB_OMNIBUS_CONFIG: |
postgresql['enable'] = false
redis['enable'] = false
gitlab_rails['registry_enabled'] = false
gitlab_rails['db_username'] = "gitlab"
gitlab_rails['db_password'] = "XXXXXXXXXXX"
gitlab_rails['db_host'] = "postgresql"
gitlab_rails['db_port'] = "5432"
gitlab_rails['db_database'] = "gitlab"
gitlab_rails['db_adapter'] = 'postgresql'
gitlab_rails['db_encoding'] = 'utf8'
gitlab_rails['redis_host'] = 'redis-master'
gitlab_rails['redis_port'] = '6379'
gitlab_rails['redis_password'] = 'xxxxxxxxxxx'
gitlab_rails['smtp_enable'] = true
gitlab_rails['smtp_address'] = "smtp.yandex.ru"
gitlab_rails['smtp_port'] = 465
gitlab_rails['smtp_user_name'] = "[email protected]"
gitlab_rails['smtp_password'] = "xxxxxxxxx"
gitlab_rails['smtp_domain'] = "example.com"
gitlab_rails['gitlab_email_from'] = '[email protected]'
gitlab_rails['smtp_authentication'] = "login"
gitlab_rails['smtp_tls'] = true
gitlab_rails['smtp_enable_starttls_auto'] = true
gitlab_rails['smtp_openssl_verify_mode'] = 'peer'
external_url 'http://gitlab.example.com/'
gitlab_rails['gitlab_shell_ssh_port'] = 22222
volumes:
- gitlab_conf:/etc/gitlab
- gitlab_logs:/var/log/gitlab
- gitlab_data:/var/opt/gitlab
deploy:
mode: replicated
replicas: 1
placement:
constraints:
- node.role == manager
labels:
- traefik.enable=true
- traefik.http.routers.gitlab.rule=Host(`gitlab.example.com`)
- traefik.http.services.gitlab.loadbalancer.server.port=80
- traefik.docker.network=traefik
gitlab-runner:
image: gitlab/gitlab-runner:latest
networks:
- gitlab
volumes:
- gitlab_runner_conf:/etc/gitlab
- /var/run/docker.sock:/var/run/docker.sock
deploy:
mode: replicated
replicas: 1
placement:
constraints:
- node.role == manager
volumes:
gitlab_conf:
driver: local
driver_opts:
type: none
o: bind
device: "/srv/docker/gitlab/conf"
gitlab_logs:
driver: local
driver_opts:
type: none
o: bind
device: "/srv/docker/gitlab/logs"
gitlab_data:
driver: local
driver_opts:
type: none
o: bind
device: "/srv/docker/gitlab/data"
gitlab_runner_conf:
driver: local
driver_opts:
type: none
o: bind
device: "/srv/docker/gitlab/runner"
networks:
pgsql:
external: true
redis:
external: true
traefik:
external: true
gitlab:
external: true
# mkdir -p /srv/docker/gitlab/conf
# mkdir -p /srv/docker/gitlab/logs
# mkdir -p /srv/docker/gitlab/data
# mkdir -p /srv/docker/gitlab/runner
# docker stack deploy --compose-file 08gitlab-runner.yml gitlab
የክላስተር እና የአገልግሎቶቹ የመጨረሻ ሁኔታ፡-
# docker service ls
ID NAME MODE REPLICAS IMAGE PORTS
lef9n3m92buq etcd_etcd1 replicated 1/1 quay.io/coreos/etcd:latest
ij6uyyo792x5 etcd_etcd2 replicated 1/1 quay.io/coreos/etcd:latest
fqttqpjgp6pp etcd_etcd3 replicated 1/1 quay.io/coreos/etcd:latest
hq5iyga28w33 gitlab_gitlab replicated 1/1 gitlab/gitlab-ce:latest *:22222->22/tcp
dt7s6vs0q4qc gitlab_gitlab-runner replicated 1/1 gitlab/gitlab-runner:latest
k7uoezno0h9n pgsql_pgkeeper1 replicated 1/1 sorintlab/stolon:master-pg10
cnrwul4r4nse pgsql_pgkeeper2 replicated 1/1 sorintlab/stolon:master-pg10
frflfnpty7tr pgsql_pgkeeper3 replicated 1/1 sorintlab/stolon:master-pg10
x7pqqchi52kq pgsql_pgsentinel replicated 3/3 sorintlab/stolon:master-pg10
mwu2wl8fti4r pgsql_postgresql replicated 3/3 sorintlab/stolon:master-pg10
9hkbe2vksbzb redis_redis-master global 3/3 bitnami/redis:latest *:6379->6379/tcp
l88zn8cla7dc redis_redis-replica replicated 3/3 bitnami/redis:latest *:30003->6379/tcp
1utp309xfmsy redis_redis-sentinel global 3/3 bitnami/redis:latest *:30002->16379/tcp
oteb824ylhyp registry_registry replicated 1/1 registry:2.6
qovrah8nzzu8 traefik_traefik replicated 3/3 traefik:latest *:80->80/tcp, *:443->443/tcp
ሌላ ምን ማሻሻል ይቻላል? ኮንቴይነሮችን በ https ላይ ለማስኬድ Traefik ማዋቀርዎን እርግጠኛ ይሁኑ፣ tls ምስጠራን ለ Postgresql እና Redis ያክሉ። ግን በአጠቃላይ ፣ ቀድሞውኑ ለገንቢዎች እንደ PoC ሊሰጥ ይችላል። አሁን ከ Docker አማራጮችን እንመልከት።
ፖድማን
በፖዳዎች የተሰበሰቡ መያዣዎችን ለማስኬድ ሌላ በጣም የታወቀ ሞተር (ፖድ ፣ የእቃ መጫኛ ቡድኖች አንድ ላይ ተዘርግተዋል)። እንደ ዶከር ኮንቴይነሮችን ለማስኬድ ምንም አይነት አገልግሎት አይፈልግም፤ ሁሉም ስራዎች የሚከናወኑት በሊፕፖድ ቤተ-መጽሐፍት ነው። እንዲሁም በGo ውስጥ የተፃፈ፣ እንደ runC ያሉ ኮንቴይነሮችን ለማስኬድ ከOCI ጋር የሚስማማ የሩጫ ጊዜ ይፈልጋል።
ከፖድማን ጋር መስራት በአጠቃላይ ያንን ለዶከር ያስታውሰዋል፣ እርስዎ እንደዚህ ሊያደርጉት እስከሚችሉት ደረጃ ድረስ (የዚህን መጣጥፍ ደራሲ ጨምሮ ብዙዎች እንደገለፁት)
$ alias docker=podman
እና መስራትዎን መቀጠል ይችላሉ. በአጠቃላይ ፣ ከፖድማን ጋር ያለው ሁኔታ በጣም አስደሳች ነው ፣ ምክንያቱም የኩበርኔትስ የመጀመሪያ ስሪቶች ከዶከር ጋር ከሰሩ ፣ ከዚያ በ 2015 አካባቢ ፣ የእቃ መያዣዎች ዓለም (ኦሲአይ - ክፍት ኮንቴይነር ኢኒሼቲቭ) እና የዶከር ክፍፍል ወደ መያዣ እና runC ከተከፋፈለ በኋላ። በኩበርኔትስ ውስጥ ለመሮጥ ከዶከር ሌላ አማራጭ እየተዘጋጀ ነበር፡ CRI-O. በዚህ ረገድ ፖድማን በቡድን ኮንቴይነሮችን ጨምሮ በ Kubernetes መርሆዎች ላይ የተገነባው የዶከር አማራጭ ነው, ነገር ግን የፕሮጀክቱ ዋና ዓላማ ያለ ተጨማሪ አገልግሎቶች የዶከር ዓይነት መያዣዎችን ማስጀመር ነው. ግልጽ በሆኑ ምክንያቶች, ገንቢዎች ክላስተር ካስፈለገዎት ኩበርኔትስ ውሰድ ብለው በግልጽ ስለሚናገሩ ምንም አይነት የመንጋጋ ሁነታ የለም.
ቅንብር
በሴንቶስ 7 ላይ ለመጫን የExtras ማከማቻውን ብቻ ያግብሩ እና ሁሉንም ነገር በትእዛዙ ይጫኑ፡-
# yum -y install podman
ሌሎች ባህሪያት
ፖድማን ለስርዓተ-ፆታ ክፍሎችን ማመንጨት ይችላል, ስለዚህም አንድ አገልጋይ ዳግም ከተጀመረ በኋላ መያዣዎችን የመጀመርን ችግር ይፈታል. በተጨማሪም ሲስተምድ በእቃ መያዣው ውስጥ እንደ ፒዲ 1 በትክክል እንደሚሰራ ታውጇል። ኮንቴይነሮችን ለመገንባት የተለየ የግንባታ መሣሪያ አለ ፣ እንዲሁም የሶስተኛ ወገን መሳሪያዎች አሉ - የዶክተር-ኮምፖስ አናሎግ ፣ እንዲሁም ከኩበርኔትስ ጋር የሚስማሙ የውቅረት ፋይሎችን ያመነጫሉ ፣ ስለሆነም ከፖድማን ወደ ኩበርኔትስ የሚደረገው ሽግግር በተቻለ መጠን ቀላል ነው።
ከፖድማን ጋር በመስራት ላይ
መንጋ ሁነታ ስለሌለ (ክላስተር ካስፈለገ ወደ ኩበርኔትስ መቀየር አለብን) በተለየ መያዣዎች ውስጥ እንሰበስባለን.
ፖድማን-አጻጻፍን ጫን፡-
# yum -y install python3-pip
# pip3 install podman-compose
ለፖድማን የተገኘው የውቅር ፋይል ትንሽ የተለየ ነው, ስለዚህ ለምሳሌ የተለየ ጥራዝ ክፍል ከአገልግሎቶች ጋር በቀጥታ ወደ ክፍል ማንቀሳቀስ ነበረብን.
gitlab-podman.yml
version: '3.7'
services:
gitlab:
image: gitlab/gitlab-ce:latest
hostname: gitlab.example.com
restart: unless-stopped
environment:
GITLAB_OMNIBUS_CONFIG: |
gitlab_rails['gitlab_shell_ssh_port'] = 22222
ports:
- "80:80"
- "22222:22"
volumes:
- /srv/podman/gitlab/conf:/etc/gitlab
- /srv/podman/gitlab/data:/var/opt/gitlab
- /srv/podman/gitlab/logs:/var/log/gitlab
networks:
- gitlab
gitlab-runner:
image: gitlab/gitlab-runner:alpine
restart: unless-stopped
depends_on:
- gitlab
volumes:
- /srv/podman/gitlab/runner:/etc/gitlab-runner
- /var/run/docker.sock:/var/run/docker.sock
networks:
- gitlab
networks:
gitlab:
# podman-compose -f gitlab-runner.yml -d up
ውጤት፡
# podman ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
da53da946c01 docker.io/gitlab/gitlab-runner:alpine run --user=gitlab... About a minute ago Up About a minute ago 0.0.0.0:22222->22/tcp, 0.0.0.0:80->80/tcp root_gitlab-runner_1
781c0103c94a docker.io/gitlab/gitlab-ce:latest /assets/wrapper About a minute ago Up About a minute ago 0.0.0.0:22222->22/tcp, 0.0.0.0:80->80/tcp root_gitlab_1
ለስርዓተ-ፆታ እና ለኩበርኔትስ ምን እንደሚያመነጭ እንይ ፣ ለዚህም የፖዱ ስም ወይም መታወቂያ መፈለግ አለብን ።
# podman pod ls
POD ID NAME STATUS CREATED # OF CONTAINERS INFRA ID
71fc2b2a5c63 root Running 11 minutes ago 3 db40ab8bf84b
ኩበርኔትስ፡
# podman generate kube 71fc2b2a5c63
# Generation of Kubernetes YAML is still under development!
#
# Save the output of this file and use kubectl create -f to import
# it into Kubernetes.
#
# Created with podman-1.6.4
apiVersion: v1
kind: Pod
metadata:
creationTimestamp: "2020-07-29T19:22:40Z"
labels:
app: root
name: root
spec:
containers:
- command:
- /assets/wrapper
env:
- name: PATH
value: /opt/gitlab/embedded/bin:/opt/gitlab/bin:/assets:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin
- name: TERM
value: xterm
- name: HOSTNAME
value: gitlab.example.com
- name: container
value: podman
- name: GITLAB_OMNIBUS_CONFIG
value: |
gitlab_rails['gitlab_shell_ssh_port'] = 22222
- name: LANG
value: C.UTF-8
image: docker.io/gitlab/gitlab-ce:latest
name: rootgitlab1
ports:
- containerPort: 22
hostPort: 22222
protocol: TCP
- containerPort: 80
hostPort: 80
protocol: TCP
resources: {}
securityContext:
allowPrivilegeEscalation: true
capabilities: {}
privileged: false
readOnlyRootFilesystem: false
volumeMounts:
- mountPath: /var/opt/gitlab
name: srv-podman-gitlab-data
- mountPath: /var/log/gitlab
name: srv-podman-gitlab-logs
- mountPath: /etc/gitlab
name: srv-podman-gitlab-conf
workingDir: /
- command:
- run
- --user=gitlab-runner
- --working-directory=/home/gitlab-runner
env:
- name: PATH
value: /usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin
- name: TERM
value: xterm
- name: HOSTNAME
- name: container
value: podman
image: docker.io/gitlab/gitlab-runner:alpine
name: rootgitlab-runner1
resources: {}
securityContext:
allowPrivilegeEscalation: true
capabilities: {}
privileged: false
readOnlyRootFilesystem: false
volumeMounts:
- mountPath: /etc/gitlab-runner
name: srv-podman-gitlab-runner
- mountPath: /var/run/docker.sock
name: var-run-docker.sock
workingDir: /
volumes:
- hostPath:
path: /srv/podman/gitlab/runner
type: Directory
name: srv-podman-gitlab-runner
- hostPath:
path: /var/run/docker.sock
type: File
name: var-run-docker.sock
- hostPath:
path: /srv/podman/gitlab/data
type: Directory
name: srv-podman-gitlab-data
- hostPath:
path: /srv/podman/gitlab/logs
type: Directory
name: srv-podman-gitlab-logs
- hostPath:
path: /srv/podman/gitlab/conf
type: Directory
name: srv-podman-gitlab-conf
status: {}
በስርዓት የተያዘ፡
# podman generate systemd 71fc2b2a5c63
# pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
# autogenerated by Podman 1.6.4
# Thu Jul 29 15:23:28 EDT 2020
[Unit]
Description=Podman pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
Documentation=man:podman-generate-systemd(1)
Requires=container-781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3.service container-da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864.service
Before=container-781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3.service container-da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864.service
[Service]
Restart=on-failure
ExecStart=/usr/bin/podman start db40ab8bf84bf35141159c26cb6e256b889c7a98c0418eee3c4aa683c14fccaa
ExecStop=/usr/bin/podman stop -t 10 db40ab8bf84bf35141159c26cb6e256b889c7a98c0418eee3c4aa683c14fccaa
KillMode=none
Type=forking
PIDFile=/var/run/containers/storage/overlay-containers/db40ab8bf84bf35141159c26cb6e256b889c7a98c0418eee3c4aa683c14fccaa/userdata/conmon.pid
[Install]
WantedBy=multi-user.target
# container-da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864.service
# autogenerated by Podman 1.6.4
# Thu Jul 29 15:23:28 EDT 2020
[Unit]
Description=Podman container-da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864.service
Documentation=man:podman-generate-systemd(1)
RefuseManualStart=yes
RefuseManualStop=yes
BindsTo=pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
After=pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
[Service]
Restart=on-failure
ExecStart=/usr/bin/podman start da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864
ExecStop=/usr/bin/podman stop -t 10 da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864
KillMode=none
Type=forking
PIDFile=/var/run/containers/storage/overlay-containers/da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864/userdata/conmon.pid
[Install]
WantedBy=multi-user.target
# container-781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3.service
# autogenerated by Podman 1.6.4
# Thu Jul 29 15:23:28 EDT 2020
[Unit]
Description=Podman container-781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3.service
Documentation=man:podman-generate-systemd(1)
RefuseManualStart=yes
RefuseManualStop=yes
BindsTo=pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
After=pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
[Service]
Restart=on-failure
ExecStart=/usr/bin/podman start 781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3
ExecStop=/usr/bin/podman stop -t 10 781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3
KillMode=none
Type=forking
PIDFile=/var/run/containers/storage/overlay-containers/781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3/userdata/conmon.pid
[Install]
WantedBy=multi-user.target
እንደ አለመታደል ሆኖ ኮንቴይነሮችን ከማስነሳት በተጨማሪ ለሲስተድ የተሰራው ክፍል ምንም አያደርግም (ለምሳሌ ፣ እንደዚህ ዓይነት አገልግሎት እንደገና ሲጀመር የቆዩ ዕቃዎችን ማጽዳት) ፣ እንደዚህ ያሉትን ነገሮች እራስዎ መፃፍ ያስፈልግዎታል ።
በመርህ ደረጃ፣ ፖድማን ኮንቴይነሮች ምን እንደሆኑ ለመሞከር፣ የድሮ ውቅሮችን ለዶከር-ኮምፖዝ ለማስተላለፍ እና ከዚያም ወደ ኩበርኔትስ ለመሄድ፣ ክላስተር ከፈለጉ ወይም ለመጠቀም ቀላል የሆነ ከ Docker በቂ ነው።
rkt
ፕሮጀክቱ
ፕላስ
ተጨማሪ
ግኝቶች
የኩበርኔትስ ሁኔታ በጣም አስደሳች ነው-በአንድ በኩል ፣ በዶከር ክላስተር መገንባት ይችላሉ (በተንጋጋ ሁነታ) ፣ በዚህም ለደንበኞች የምርት አከባቢዎችን እንኳን ማካሄድ ይችላሉ ፣ ይህ በተለይ ለትናንሽ ቡድኖች (3-5 ሰዎች) እውነት ነው ። , ወይም በትንሽ አጠቃላይ ሸክም , ወይም ኩበርኔትስን የማዘጋጀት ውስብስብ ነገሮችን ለመረዳት ፍላጎት ማጣት, ለከፍተኛ ጭነት ጭምር.
ፖድማን ሙሉ ተኳሃኝነትን አይሰጥም, ነገር ግን አንድ ጠቃሚ ጠቀሜታ አለው - ከ Kubernetes ጋር ተኳሃኝነት, ተጨማሪ መሳሪያዎችን (buildah እና ሌሎች) ጨምሮ. ስለዚህ የመሳሪያውን ምርጫ በሚከተለው መንገድ እቀርባለሁ-ለአነስተኛ ቡድኖች ወይም በተወሰነ በጀት - ዶከር (በሚቻል መንጋ ሁነታ) ፣ በግላዊ አካባቢያዊ አስተናጋጅ ላይ ለራሴ ለማዳበር - የፖድማን ባልደረቦች እና ለሁሉም ሰው። - ኩበርኔትስ.
ከዶከር ጋር ያለው ሁኔታ ወደፊት እንደማይለወጥ እርግጠኛ አይደለሁም, ከሁሉም በኋላ, እነሱ አቅኚዎች ናቸው, እና ደግሞ ቀስ በቀስ ደረጃቸውን የጠበቁ ናቸው, ነገር ግን ፖድማን, ለሁሉም ድክመቶች (በሊኑክስ ላይ ብቻ ይሰራል, ምንም ስብስብ የለም. ስብሰባ እና ሌሎች ድርጊቶች የሶስተኛ ወገን መፍትሄዎች ናቸው) የወደፊቱ ጊዜ ይበልጥ ግልጽ ነው, ስለዚህ በአስተያየቶቹ ውስጥ እነዚህን ግኝቶች እንዲወያዩ ሁሉም ሰው እጋብዛለሁ.
PS ኦገስት 3 ቀን እንጀምራለን "
ከመለቀቁ በፊት ዋጋን አስቀድመው ይዘዙ፡ 5000 RUB። የዶከር ቪዲዮ ኮርስ ፕሮግራም ማየት ትችላለህ
ምንጭ: hab.com