Dociwr a phawb, i gyd, i gyd

TL; DR: Erthygl drosolwg - canllaw i gymharu amgylcheddau ar gyfer rhedeg cymwysiadau mewn cynwysyddion. Bydd posibiliadau Docker a systemau tebyg eraill yn cael eu hystyried.

Dociwr a phawb, i gyd, i gyd

Ychydig o hanes o ble y daeth y cyfan

Stori

Y ffordd adnabyddus gyntaf i ynysu cais yw chroot. Mae'r alwad system o'r un enw yn darparu newid i'r cyfeiriadur gwraidd - gan ddarparu mynediad i'r rhaglen a'i galwodd, mynediad yn unig i ffeiliau y tu mewn i'r cyfeiriadur hwn. Ond os rhoddir hawliau superuser y tu mewn i'r rhaglen, mae'n bosibl y gall "ddianc" o'r groot a chael mynediad i'r brif system weithredu. Hefyd, yn ogystal â newid y cyfeiriadur gwraidd, nid yw adnoddau eraill (RAM, prosesydd), yn ogystal â mynediad i'r rhwydwaith, yn gyfyngedig.

Y ffordd nesaf yw lansio system weithredu lawn y tu mewn i'r cynhwysydd, gan ddefnyddio mecanweithiau cnewyllyn y system weithredu. Gelwir y dull hwn yn wahanol mewn systemau gweithredu gwahanol, ond mae'r hanfod yr un peth - rhedeg nifer o systemau gweithredu annibynnol, pob un ohonynt yn rhedeg ar yr un cnewyllyn sy'n rhedeg y brif system weithredu. Mae hyn yn cynnwys Carchardai FreeBSD, Parthau Solaris, OpenVZ, a LXC ar gyfer Linux. Darperir ynysu nid yn unig ar gyfer gofod disg, ond hefyd ar gyfer adnoddau eraill, yn arbennig, gall pob cynhwysydd gael cyfyngiadau ar amser prosesydd, RAM, lled band rhwydwaith. O'i gymharu â chroot, mae'n anoddach gadael y cynhwysydd, gan fod gan y superuser yn y cynhwysydd fynediad i'r tu mewn i'r cynhwysydd yn unig, fodd bynnag, oherwydd yr angen i gadw'r system weithredu y tu mewn i'r cynhwysydd yn gyfredol a'r defnydd o hen gnewyllyn. fersiynau (perthnasol ar gyfer Linux, i raddau llai FreeBSD), mae di-sero y tebygolrwydd o dorri drwy'r system ynysu cnewyllyn a chael mynediad i'r brif system weithredu.

Yn lle lansio system weithredu lawn mewn cynhwysydd (gyda system gychwyn, rheolwr pecyn, ac ati), gellir lansio ceisiadau ar unwaith, y prif beth yw darparu'r cyfle hwn i geisiadau (presenoldeb y llyfrgelloedd angenrheidiol a ffeiliau eraill). Roedd y syniad hwn yn sail ar gyfer rhithwiroli cymwysiadau mewn cynwysyddion, a'r cynrychiolydd mwyaf amlwg ac adnabyddus yw Docker. O'i gymharu â systemau blaenorol, arweiniodd mecanweithiau ynysu mwy hyblyg, ynghyd â chefnogaeth adeiledig ar gyfer rhwydweithiau rhithwir rhwng cynwysyddion a chyflwr cymhwysiad y tu mewn i gynhwysydd, at y gallu i adeiladu un amgylchedd cyfannol o nifer fawr o weinyddion ffisegol i redeg cynwysyddion - heb yr angen am reoli adnoddau â llaw.

Docker

Docker yw'r meddalwedd cynhwysydd cymwysiadau mwyaf adnabyddus. Wedi'i ysgrifennu yn yr iaith Go, mae'n defnyddio galluoedd rheolaidd y cnewyllyn Linux - cgroups, gofodau enwau, galluoedd, ac ati, yn ogystal â systemau ffeiliau Aufs ac eraill tebyg i arbed gofod disg.

Dociwr a phawb, i gyd, i gyd
Ffynhonnell: wikimedia

pensaernïaeth

Cyn fersiwn 1.11, roedd Docker yn gweithio fel gwasanaeth sengl a gyflawnodd yr holl weithrediadau gyda chynwysyddion: lawrlwytho delweddau ar gyfer cynwysyddion, lansio cynwysyddion, prosesu ceisiadau API. Ers fersiwn 1.11, mae Docker wedi'i rannu'n sawl rhan sy'n rhyngweithio â'i gilydd: mewn cynhwysydd, i drin cylch bywyd cyfan cynwysyddion (dyrannu gofod disg, lawrlwytho delweddau, rhwydweithio, lansio, gosod a monitro cyflwr cynwysyddion) a runC , amseroedd rhedeg cynhwysydd, yn seiliedig ar y defnydd o cgroups a nodweddion eraill y cnewyllyn Linux. Mae'r gwasanaeth docwr ei hun yn parhau, ond nawr mae'n gwasanaethu i brosesu ceisiadau API a ddarlledir i gynhwysydd yn unig.

Dociwr a phawb, i gyd, i gyd

Gosod a chyfluniad

Fy hoff ffordd i osod docwr yw peiriant docwr, sydd, yn ogystal â gosod a ffurfweddu docwr yn uniongyrchol ar weinyddion anghysbell (gan gynnwys cymylau amrywiol), yn caniatáu ichi weithio gyda systemau ffeiliau gweinyddwyr anghysbell, a gall hefyd redeg gorchmynion amrywiol.

Fodd bynnag, ers 2018, prin y datblygwyd y prosiect, felly byddwn yn ei osod yn y ffordd arferol ar gyfer y rhan fwyaf o ddosbarthiadau Linux - trwy ychwanegu ystorfa a gosod y pecynnau angenrheidiol.

Defnyddir y dull hwn hefyd ar gyfer gosod awtomataidd, er enghraifft, defnyddio Ansible neu systemau tebyg eraill, ond ni fyddaf yn ei ystyried yn yr erthygl hon.

Bydd gosod yn cael ei wneud ar Centos 7, byddaf yn defnyddio peiriant rhithwir fel gweinydd, i osod, dim ond rhedeg y gorchmynion isod:

# yum install -y yum-utils
# yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo
# yum install docker-ce docker-ce-cli containerd.io

Ar ôl ei osod, mae angen i chi ddechrau'r gwasanaeth, ei roi mewn llwyth awtomatig:

# systemctl enable docker
# systemctl start docker
# firewall-cmd --zone=public --add-port=2377/tcp --permanent

Yn ogystal, gallwch greu grŵp docwyr, y bydd ei ddefnyddwyr yn gallu gweithio gyda docwr heb sudo, sefydlu logio, galluogi mynediad i'r API o'r tu allan, peidiwch ag anghofio mireinio'r wal dân (mae popeth na chaniateir yn gwaharddedig yn yr enghreifftiau uchod ac isod - hepgorais hwn er mwyn symlrwydd a delweddu), ond nid af i fwy o fanylion yma.

Nodweddion eraill

Yn ogystal â'r peiriant docwr uchod, mae yna hefyd gofrestrfa docwyr, offeryn ar gyfer storio delweddau ar gyfer cynwysyddion, yn ogystal â chyfansoddiad docwyr - offeryn ar gyfer awtomeiddio'r defnydd o gymwysiadau mewn cynwysyddion, defnyddir ffeiliau YAML i adeiladu a ffurfweddu cynwysyddion a pethau cysylltiedig eraill (er enghraifft, rhwydweithiau, systemau ffeiliau parhaus ar gyfer storio data).

Gellir ei ddefnyddio hefyd i drefnu piblinellau ar gyfer CICD. Nodwedd ddiddorol arall yw gweithio yn y modd clwstwr, y modd haid fel y'i gelwir (cyn fersiwn 1.12 fe'i gelwid yn haid docwr), sy'n eich galluogi i gydosod seilwaith sengl o sawl gweinydd i redeg cynwysyddion. Mae cefnogaeth ar gyfer rhwydwaith rhithwir ar ben yr holl weinyddion, mae cydbwysedd llwyth adeiledig, yn ogystal â chefnogaeth ar gyfer cyfrinachau ar gyfer cynwysyddion.

Gellir defnyddio'r ffeiliau YAML o gyfansoddiad docwyr ar gyfer clystyrau o'r fath gyda mân addasiadau, gan awtomeiddio'n llawn y gwaith o gynnal a chadw clystyrau bach a chanolig at wahanol ddibenion. Ar gyfer clystyrau mawr, mae Kubernetes yn well oherwydd gall costau cynnal a chadw modd heidio fod yn fwy na rhai Kubernetes. Yn ogystal â runC, fel amgylchedd gweithredu ar gyfer cynwysyddion, gallwch chi osod, er enghraifft Cynwysyddion Kata

Gweithio gyda Docker

Ar ôl gosod a ffurfweddu, byddwn yn ceisio adeiladu clwstwr lle byddwn yn defnyddio GitLab a Docker Registry ar gyfer y tîm datblygu. Fel gweinyddwyr, byddaf yn defnyddio tri pheiriant rhithwir, y byddaf hefyd yn defnyddio'r FS dosbarthedig GlusterFS arnynt, byddaf yn ei ddefnyddio fel storfa cyfrolau docwr, er enghraifft, i redeg fersiwn methu diogel o gofrestrfa'r docwyr. Cydrannau allweddol i'w rhedeg: Cofrestrfa Docker, Postgresql, Redis, GitLab gyda chefnogaeth i GitLab Runner ar ben Swarm. Bydd Postgresql yn cael ei lansio gyda chlystyru Stolon, felly nid oes angen i chi ddefnyddio GlusterFS i storio data Postgresql. Bydd gweddill y data critigol yn cael ei storio ar GlusterFS.

I ddefnyddio GlusterFS ar bob gweinydd (fe'u gelwir yn nod1, nod2, nod3), mae angen i chi osod pecynnau, galluogi'r wal dân, creu'r cyfeiriaduron angenrheidiol:

# yum -y install centos-release-gluster7
# yum -y install glusterfs-server
# systemctl enable glusterd
# systemctl start glusterd
# firewall-cmd --add-service=glusterfs --permanent
# firewall-cmd --reload
# mkdir -p /srv/gluster
# mkdir -p /srv/docker
# echo "$(hostname):/docker /srv/docker glusterfs defaults,_netdev 0 0" >> /etc/fstab

Ar ôl ei osod, rhaid parhau â'r gwaith o ffurfweddu GlusterFS o un nod, er enghraifft nod1:

# gluster peer probe node2
# gluster peer probe node3
# gluster volume create docker replica 3 node1:/srv/gluster node2:/srv/gluster node3:/srv/gluster force
# gluster volume start docker

Yna mae angen i chi osod y gyfrol canlyniadol (rhaid rhedeg y gorchymyn ar bob gweinydd):

# mount /srv/docker

Mae modd heidio wedi'i ffurfweddu ar un o'r gweinyddwyr, a fydd yn Arweinydd, bydd yn rhaid i'r gweddill ymuno â'r clwstwr, felly bydd angen copïo canlyniad rhedeg y gorchymyn ar y gweinydd cyntaf a'i weithredu ar y gweddill.

Gosodiad clwstwr cychwynnol, rwy'n rhedeg y gorchymyn ar nod1:

# docker swarm init
Swarm initialized: current node (a5jpfrh5uvo7svzz1ajduokyq) is now a manager.

To add a worker to this swarm, run the following command:

    docker swarm join --token SWMTKN-1-0c5mf7mvzc7o7vjk0wngno2dy70xs95tovfxbv4tqt9280toku-863hyosdlzvd76trfptd4xnzd xx.xx.xx.xx:2377

To add a manager to this swarm, run 'docker swarm join-token manager' and follow the instructions.
# docker swarm join-token manager

Copïwch ganlyniad yr ail orchymyn, gweithredwch ar nod2 a nod3:

# docker swarm join --token SWMTKN-x-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx-xxxxxxxxx xx.xx.xx.xx:2377
This node joined a swarm as a manager.

Mae hyn yn cwblhau cyfluniad rhagarweiniol y gweinyddwyr, gadewch i ni ddechrau ffurfweddu'r gwasanaethau, bydd y gorchmynion i'w gweithredu yn cael eu lansio o nod1, oni nodir yn wahanol.

Yn gyntaf oll, gadewch i ni greu rhwydweithiau ar gyfer cynwysyddion:

# docker network create --driver=overlay etcd
# docker network create --driver=overlay pgsql
# docker network create --driver=overlay redis
# docker network create --driver=overlay traefik
# docker network create --driver=overlay gitlab

Yna rydyn ni'n marcio'r gweinyddwyr, mae hyn yn angenrheidiol i rwymo rhai gwasanaethau i'r gweinyddwyr:

# docker node update --label-add nodename=node1 node1
# docker node update --label-add nodename=node2 node2
# docker node update --label-add nodename=node3 node3

Nesaf, rydym yn creu cyfeiriaduron ar gyfer storio data ac ati, y storfa KV sydd ei angen ar Traefik a Stolon. Yn debyg i Postgresql, bydd y rhain yn gynwysyddion wedi'u rhwymo i weinyddion, felly rydym yn gweithredu'r gorchymyn hwn ar bob gweinydd:

# mkdir -p /srv/etcd

Nesaf, crëwch ffeil i'w ffurfweddu ac ati a'i chymhwyso:

00etcd.yml

version: '3.7'

services:
  etcd1:
    image: quay.io/coreos/etcd:latest
    hostname: etcd1
    command:
      - etcd
      - --name=etcd1
      - --data-dir=/data.etcd
      - --advertise-client-urls=http://etcd1:2379
      - --listen-client-urls=http://0.0.0.0:2379
      - --initial-advertise-peer-urls=http://etcd1:2380
      - --listen-peer-urls=http://0.0.0.0:2380
      - --initial-cluster=etcd1=http://etcd1:2380,etcd2=http://etcd2:2380,etcd3=http://etcd3:2380
      - --initial-cluster-state=new
      - --initial-cluster-token=etcd-cluster
    networks:
      - etcd
    volumes:
      - etcd1vol:/data.etcd
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node1]
  etcd2:
    image: quay.io/coreos/etcd:latest
    hostname: etcd2
    command:
      - etcd
      - --name=etcd2
      - --data-dir=/data.etcd
      - --advertise-client-urls=http://etcd2:2379
      - --listen-client-urls=http://0.0.0.0:2379
      - --initial-advertise-peer-urls=http://etcd2:2380
      - --listen-peer-urls=http://0.0.0.0:2380
      - --initial-cluster=etcd1=http://etcd1:2380,etcd2=http://etcd2:2380,etcd3=http://etcd3:2380
      - --initial-cluster-state=new
      - --initial-cluster-token=etcd-cluster
    networks:
      - etcd
    volumes:
      - etcd2vol:/data.etcd
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node2]
  etcd3:
    image: quay.io/coreos/etcd:latest
    hostname: etcd3
    command:
      - etcd
      - --name=etcd3
      - --data-dir=/data.etcd
      - --advertise-client-urls=http://etcd3:2379
      - --listen-client-urls=http://0.0.0.0:2379
      - --initial-advertise-peer-urls=http://etcd3:2380
      - --listen-peer-urls=http://0.0.0.0:2380
      - --initial-cluster=etcd1=http://etcd1:2380,etcd2=http://etcd2:2380,etcd3=http://etcd3:2380
      - --initial-cluster-state=new
      - --initial-cluster-token=etcd-cluster
    networks:
      - etcd
    volumes:
      - etcd3vol:/data.etcd
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node3]

volumes:
  etcd1vol:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/etcd"
  etcd2vol:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/etcd"
  etcd3vol:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/etcd"

networks:
  etcd:
    external: true

# docker stack deploy --compose-file 00etcd.yml etcd

Ar ôl ychydig, rydym yn gwirio bod y clwstwr etcd wedi codi:

# docker exec $(docker ps | awk '/etcd/ {print $1}')  etcdctl member list
ade526d28b1f92f7: name=etcd1 peerURLs=http://etcd1:2380 clientURLs=http://etcd1:2379 isLeader=false
bd388e7810915853: name=etcd3 peerURLs=http://etcd3:2380 clientURLs=http://etcd3:2379 isLeader=false
d282ac2ce600c1ce: name=etcd2 peerURLs=http://etcd2:2380 clientURLs=http://etcd2:2379 isLeader=true
# docker exec $(docker ps | awk '/etcd/ {print $1}')  etcdctl cluster-health
member ade526d28b1f92f7 is healthy: got healthy result from http://etcd1:2379
member bd388e7810915853 is healthy: got healthy result from http://etcd3:2379
member d282ac2ce600c1ce is healthy: got healthy result from http://etcd2:2379
cluster is healthy

Creu cyfeiriaduron ar gyfer Postgresql, gweithredu'r gorchymyn ar bob gweinydd:

# mkdir -p /srv/pgsql

Nesaf, crëwch ffeil i ffurfweddu Postgresql:

01pgsql.yml

version: '3.7'

services:
  pgsentinel:
    image: sorintlab/stolon:master-pg10
    command:
      - gosu
      - stolon
      - stolon-sentinel
      - --cluster-name=stolon-cluster
      - --store-backend=etcdv3
      - --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
      - --log-level=debug
    networks:
      - etcd
      - pgsql
    deploy:
      replicas: 3
      update_config:
        parallelism: 1
        delay: 30s
        order: stop-first
        failure_action: pause
  pgkeeper1:
    image: sorintlab/stolon:master-pg10
    hostname: pgkeeper1
    command:
      - gosu
      - stolon
      - stolon-keeper
      - --pg-listen-address=pgkeeper1
      - --pg-repl-username=replica
      - --uid=pgkeeper1
      - --pg-su-username=postgres
      - --pg-su-passwordfile=/run/secrets/pgsql
      - --pg-repl-passwordfile=/run/secrets/pgsql_repl
      - --data-dir=/var/lib/postgresql/data
      - --cluster-name=stolon-cluster
      - --store-backend=etcdv3
      - --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
    networks:
      - etcd
      - pgsql
    environment:
      - PGDATA=/var/lib/postgresql/data
    volumes:
      - pgkeeper1:/var/lib/postgresql/data
    secrets:
      - pgsql
      - pgsql_repl
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node1]
  pgkeeper2:
    image: sorintlab/stolon:master-pg10
    hostname: pgkeeper2
    command:
      - gosu
      - stolon 
      - stolon-keeper
      - --pg-listen-address=pgkeeper2
      - --pg-repl-username=replica
      - --uid=pgkeeper2
      - --pg-su-username=postgres
      - --pg-su-passwordfile=/run/secrets/pgsql
      - --pg-repl-passwordfile=/run/secrets/pgsql_repl
      - --data-dir=/var/lib/postgresql/data
      - --cluster-name=stolon-cluster
      - --store-backend=etcdv3
      - --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
    networks:
      - etcd
      - pgsql
    environment:
      - PGDATA=/var/lib/postgresql/data
    volumes:
      - pgkeeper2:/var/lib/postgresql/data
    secrets:
      - pgsql
      - pgsql_repl
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node2]
  pgkeeper3:
    image: sorintlab/stolon:master-pg10
    hostname: pgkeeper3
    command:
      - gosu
      - stolon 
      - stolon-keeper
      - --pg-listen-address=pgkeeper3
      - --pg-repl-username=replica
      - --uid=pgkeeper3
      - --pg-su-username=postgres
      - --pg-su-passwordfile=/run/secrets/pgsql
      - --pg-repl-passwordfile=/run/secrets/pgsql_repl
      - --data-dir=/var/lib/postgresql/data
      - --cluster-name=stolon-cluster
      - --store-backend=etcdv3
      - --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
    networks:
      - etcd
      - pgsql
    environment:
      - PGDATA=/var/lib/postgresql/data
    volumes:
      - pgkeeper3:/var/lib/postgresql/data
    secrets:
      - pgsql
      - pgsql_repl
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node3]
  postgresql:
    image: sorintlab/stolon:master-pg10
    command: gosu stolon stolon-proxy --listen-address 0.0.0.0 --cluster-name stolon-cluster --store-backend=etcdv3 --store-endpoints http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
    networks:
      - etcd
      - pgsql
    deploy:
      replicas: 3
      update_config:
        parallelism: 1
        delay: 30s
        order: stop-first
        failure_action: rollback

volumes:
  pgkeeper1:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/pgsql"
  pgkeeper2:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/pgsql"
  pgkeeper3:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/pgsql"

secrets:
  pgsql:
    file: "/srv/docker/postgres"
  pgsql_repl:
    file: "/srv/docker/replica"

networks:
  etcd:
    external: true
  pgsql:
    external: true

Rydym yn cynhyrchu cyfrinachau, yn cymhwyso'r ffeil:

# </dev/urandom tr -dc 234567890qwertyuopasdfghjkzxcvbnmQWERTYUPASDFGHKLZXCVBNM | head -c $(((RANDOM%3)+15)) > /srv/docker/replica
# </dev/urandom tr -dc 234567890qwertyuopasdfghjkzxcvbnmQWERTYUPASDFGHKLZXCVBNM | head -c $(((RANDOM%3)+15)) > /srv/docker/postgres
# docker stack deploy --compose-file 01pgsql.yml pgsql

Beth amser yn ddiweddarach (edrychwch ar allbwn y gorchymyn gwasanaeth docwr lsbod yr holl wasanaethau wedi codi) cychwyn clwstwr Postgresql:

# docker exec $(docker ps | awk '/pgkeeper/ {print $1}') stolonctl --cluster-name=stolon-cluster --store-backend=etcdv3 --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379 init

Gwirio parodrwydd clwstwr Postgresql:

# docker exec $(docker ps | awk '/pgkeeper/ {print $1}') stolonctl --cluster-name=stolon-cluster --store-backend=etcdv3 --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379 status
=== Active sentinels ===

ID      LEADER
26baa11d    false
74e98768    false
a8cb002b    true

=== Active proxies ===

ID
4d233826
9f562f3b
b0c79ff1

=== Keepers ===

UID     HEALTHY PG LISTENADDRESS    PG HEALTHY  PG WANTEDGENERATION PG CURRENTGENERATION
pgkeeper1   true    pgkeeper1:5432         true     2           2
pgkeeper2   true    pgkeeper2:5432          true            2                   2
pgkeeper3   true    pgkeeper3:5432          true            3                   3

=== Cluster Info ===

Master Keeper: pgkeeper3

===== Keepers/DB tree =====

pgkeeper3 (master)
├─pgkeeper2
└─pgkeeper1

Rydym yn ffurfweddu traefik i agor mynediad i gynwysyddion o'r tu allan:

03traefik.yml

version: '3.7'

services:
  traefik:
    image: traefik:latest
    command: >
      --log.level=INFO
      --providers.docker=true
      --entryPoints.web.address=:80
      --providers.providersThrottleDuration=2
      --providers.docker.watch=true
      --providers.docker.swarmMode=true
      --providers.docker.swarmModeRefreshSeconds=15s
      --providers.docker.exposedbydefault=false
      --accessLog.bufferingSize=0
      --api=true
      --api.dashboard=true
      --api.insecure=true
    networks:
      - traefik
    ports:
      - 80:80
    volumes:
      - /var/run/docker.sock:/var/run/docker.sock
    deploy:
      replicas: 3
      placement:
        constraints:
          - node.role == manager
        preferences:
          - spread: node.id
      labels:
        - traefik.enable=true
        - traefik.http.routers.traefik.rule=Host(`traefik.example.com`)
        - traefik.http.services.traefik.loadbalancer.server.port=8080
        - traefik.docker.network=traefik

networks:
  traefik:
    external: true

# docker stack deploy --compose-file 03traefik.yml traefik

Rydym yn cychwyn Clwstwr Redis, ar gyfer hyn rydym yn creu cyfeiriadur storio ar bob nod:

# mkdir -p /srv/redis

05redis.yml

version: '3.7'

services:
  redis-master:
    image: 'bitnami/redis:latest'
    networks:
      - redis
    ports:
      - '6379:6379'
    environment:
      - REDIS_REPLICATION_MODE=master
      - REDIS_PASSWORD=xxxxxxxxxxx
    deploy:
      mode: global
      restart_policy:
        condition: any
    volumes:
      - 'redis:/opt/bitnami/redis/etc/'

  redis-replica:
    image: 'bitnami/redis:latest'
    networks:
      - redis
    ports:
      - '6379'
    depends_on:
      - redis-master
    environment:
      - REDIS_REPLICATION_MODE=slave
      - REDIS_MASTER_HOST=redis-master
      - REDIS_MASTER_PORT_NUMBER=6379
      - REDIS_MASTER_PASSWORD=xxxxxxxxxxx
      - REDIS_PASSWORD=xxxxxxxxxxx
    deploy:
      mode: replicated
      replicas: 3
      update_config:
        parallelism: 1
        delay: 10s
      restart_policy:
        condition: any

  redis-sentinel:
    image: 'bitnami/redis:latest'
    networks:
      - redis
    ports:
      - '16379'
    depends_on:
      - redis-master
      - redis-replica
    entrypoint: |
      bash -c 'bash -s <<EOF
      "/bin/bash" -c "cat <<EOF > /opt/bitnami/redis/etc/sentinel.conf
      port 16379
      dir /tmp
      sentinel monitor master-node redis-master 6379 2
      sentinel down-after-milliseconds master-node 5000
      sentinel parallel-syncs master-node 1
      sentinel failover-timeout master-node 5000
      sentinel auth-pass master-node xxxxxxxxxxx
      sentinel announce-ip redis-sentinel
      sentinel announce-port 16379
      EOF"
      "/bin/bash" -c "redis-sentinel /opt/bitnami/redis/etc/sentinel.conf"
      EOF'
    deploy:
      mode: global
      restart_policy:
        condition: any

volumes:
  redis:
    driver: local
    driver_opts:
      type: 'none'
      o: 'bind'
      device: "/srv/redis"

networks:
  redis:
    external: true

# docker stack deploy --compose-file 05redis.yml redis

Ychwanegu Cofrestrfa Docker:

06registry.yml

version: '3.7'

services:
  registry:
    image: registry:2.6
    networks:
      - traefik
    volumes:
      - registry_data:/var/lib/registry
    deploy:
      replicas: 1
      placement:
        constraints: [node.role == manager]
      restart_policy:
        condition: on-failure
      labels:
        - traefik.enable=true
        - traefik.http.routers.registry.rule=Host(`registry.example.com`)
        - traefik.http.services.registry.loadbalancer.server.port=5000
        - traefik.docker.network=traefik

volumes:
  registry_data:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/docker/registry"

networks:
  traefik:
    external: true

# mkdir /srv/docker/registry
# docker stack deploy --compose-file 06registry.yml registry

Ac yn olaf - GitLab:

08gitlab-rhedwr.yml

version: '3.7'

services:
  gitlab:
    image: gitlab/gitlab-ce:latest
    networks:
      - pgsql
      - redis
      - traefik
      - gitlab
    ports:
      - 22222:22
    environment:
      GITLAB_OMNIBUS_CONFIG: |
        postgresql['enable'] = false
        redis['enable'] = false
        gitlab_rails['registry_enabled'] = false
        gitlab_rails['db_username'] = "gitlab"
        gitlab_rails['db_password'] = "XXXXXXXXXXX"
        gitlab_rails['db_host'] = "postgresql"
        gitlab_rails['db_port'] = "5432"
        gitlab_rails['db_database'] = "gitlab"
        gitlab_rails['db_adapter'] = 'postgresql'
        gitlab_rails['db_encoding'] = 'utf8'
        gitlab_rails['redis_host'] = 'redis-master'
        gitlab_rails['redis_port'] = '6379'
        gitlab_rails['redis_password'] = 'xxxxxxxxxxx'
        gitlab_rails['smtp_enable'] = true
        gitlab_rails['smtp_address'] = "smtp.yandex.ru"
        gitlab_rails['smtp_port'] = 465
        gitlab_rails['smtp_user_name'] = "[email protected]"
        gitlab_rails['smtp_password'] = "xxxxxxxxx"
        gitlab_rails['smtp_domain'] = "example.com"
        gitlab_rails['gitlab_email_from'] = '[email protected]'
        gitlab_rails['smtp_authentication'] = "login"
        gitlab_rails['smtp_tls'] = true
        gitlab_rails['smtp_enable_starttls_auto'] = true
        gitlab_rails['smtp_openssl_verify_mode'] = 'peer'
        external_url 'http://gitlab.example.com/'
        gitlab_rails['gitlab_shell_ssh_port'] = 22222
    volumes:
      - gitlab_conf:/etc/gitlab
      - gitlab_logs:/var/log/gitlab
      - gitlab_data:/var/opt/gitlab
    deploy:
      mode: replicated
      replicas: 1
      placement:
        constraints:
        - node.role == manager
      labels:
        - traefik.enable=true
        - traefik.http.routers.gitlab.rule=Host(`gitlab.example.com`)
        - traefik.http.services.gitlab.loadbalancer.server.port=80
        - traefik.docker.network=traefik
  gitlab-runner:
    image: gitlab/gitlab-runner:latest
    networks:
      - gitlab
    volumes:
      - gitlab_runner_conf:/etc/gitlab
      - /var/run/docker.sock:/var/run/docker.sock
    deploy:
      mode: replicated
      replicas: 1
      placement:
        constraints:
        - node.role == manager

volumes:
  gitlab_conf:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/docker/gitlab/conf"
  gitlab_logs:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/docker/gitlab/logs"
  gitlab_data:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/docker/gitlab/data"
  gitlab_runner_conf:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/docker/gitlab/runner"

networks:
  pgsql:
    external: true
  redis:
    external: true
  traefik:
    external: true
  gitlab:
    external: true

# mkdir -p /srv/docker/gitlab/conf
# mkdir -p /srv/docker/gitlab/logs
# mkdir -p /srv/docker/gitlab/data
# mkdir -p /srv/docker/gitlab/runner
# docker stack deploy --compose-file 08gitlab-runner.yml gitlab

Cyflwr terfynol y clwstwr a’r gwasanaethau:

# docker service ls
ID                  NAME                   MODE                REPLICAS            IMAGE                          PORTS
lef9n3m92buq        etcd_etcd1             replicated          1/1                 quay.io/coreos/etcd:latest
ij6uyyo792x5        etcd_etcd2             replicated          1/1                 quay.io/coreos/etcd:latest
fqttqpjgp6pp        etcd_etcd3             replicated          1/1                 quay.io/coreos/etcd:latest
hq5iyga28w33        gitlab_gitlab          replicated          1/1                 gitlab/gitlab-ce:latest        *:22222->22/tcp
dt7s6vs0q4qc        gitlab_gitlab-runner   replicated          1/1                 gitlab/gitlab-runner:latest
k7uoezno0h9n        pgsql_pgkeeper1        replicated          1/1                 sorintlab/stolon:master-pg10
cnrwul4r4nse        pgsql_pgkeeper2        replicated          1/1                 sorintlab/stolon:master-pg10
frflfnpty7tr        pgsql_pgkeeper3        replicated          1/1                 sorintlab/stolon:master-pg10
x7pqqchi52kq        pgsql_pgsentinel       replicated          3/3                 sorintlab/stolon:master-pg10
mwu2wl8fti4r        pgsql_postgresql       replicated          3/3                 sorintlab/stolon:master-pg10
9hkbe2vksbzb        redis_redis-master     global              3/3                 bitnami/redis:latest           *:6379->6379/tcp
l88zn8cla7dc        redis_redis-replica    replicated          3/3                 bitnami/redis:latest           *:30003->6379/tcp
1utp309xfmsy        redis_redis-sentinel   global              3/3                 bitnami/redis:latest           *:30002->16379/tcp
oteb824ylhyp        registry_registry      replicated          1/1                 registry:2.6
qovrah8nzzu8        traefik_traefik        replicated          3/3                 traefik:latest                 *:80->80/tcp, *:443->443/tcp

Beth arall y gellir ei wella? Gwnewch yn siŵr eich bod chi'n ffurfweddu Traefik i weithio gyda chynwysyddion https, ychwanegu amgryptio tls ar gyfer Postgresql a Redis. Ond yn gyffredinol, gallwch chi eisoes ei roi i ddatblygwyr fel PoC. Edrychwn yn awr ar ddewisiadau eraill yn lle Docker.

podman

Peiriant eithaf adnabyddus arall ar gyfer rhedeg cynwysyddion wedi'u grwpio fesul codennau (podiau, grwpiau o gynwysyddion wedi'u lleoli gyda'i gilydd). Yn wahanol i Docker, nid oes angen unrhyw wasanaeth i redeg cynwysyddion, mae'r holl waith yn cael ei wneud trwy'r llyfrgell libpod. Hefyd wedi'i ysgrifennu yn Go, mae angen amser rhedeg sy'n cydymffurfio â OCI i redeg cynwysyddion fel runC.

Dociwr a phawb, i gyd, i gyd

Mae gweithio gyda Podman yn gyffredinol yn debyg i waith Docker, i'r graddau y gallwch chi ei wneud fel hyn (a honnwyd gan lawer sydd wedi rhoi cynnig arno, gan gynnwys awdur yr erthygl hon):

$ alias docker=podman

a gallwch chi barhau i weithio. Yn gyffredinol, mae'r sefyllfa gyda Podman yn ddiddorol iawn, oherwydd pe bai'r fersiynau cynnar o Kubernetes yn gweithio gyda Docker, yna ers tua 2015, ar ôl safoni'r byd cynhwysydd (OCI - Open Container Initiative) a hollti Docker yn gynhwysydd a runC, dewis arall yn lle Mae Docker yn cael ei ddatblygu i redeg yn Kubernetes: CRI-O. Mae Podman yn hyn o beth yn ddewis arall i Docker, wedi'i adeiladu ar egwyddorion Kubernetes, gan gynnwys grwpio cynwysyddion, ond prif nod y prosiect yw rhedeg cynwysyddion arddull Docker heb wasanaethau ychwanegol. Am resymau amlwg, nid oes modd heidio, gan fod y datblygwyr yn dweud yn glir, os oes angen clwstwr arnoch, cymerwch Kubernetes.

Gosod

I osod ar Centos 7, gweithredwch y storfa Extras, ac yna gosodwch bopeth gyda'r gorchymyn:

# yum -y install podman

Nodweddion eraill

Gall Podman gynhyrchu unedau ar gyfer systemd, a thrwy hynny ddatrys y broblem o gychwyn cynwysyddion ar ôl ailgychwyn gweinydd. Yn ogystal, datganir bod systemd yn gweithio'n gywir fel pid 1 yn y cynhwysydd. I adeiladu cynwysyddion, mae yna offeryn buildah ar wahân, mae yna hefyd offer trydydd parti - analogau o doc-gyfansoddi, sydd hefyd yn cynhyrchu ffeiliau cyfluniad sy'n gydnaws â Kubernetes, felly mae'r trosglwyddiad o Podman i Kubernetes mor syml â phosib.

Gweithio gyda Podman

Gan nad oes modd heidio (mae i fod i newid i Kubernetes os oes angen clwstwr), byddwn yn ei ymgynnull mewn cynwysyddion ar wahân.

Gosod podman-compose:

# yum -y install python3-pip
# pip3 install podman-compose

Mae'r ffeil ffurfweddu canlyniadol ar gyfer podman ychydig yn wahanol, oherwydd er enghraifft bu'n rhaid i ni symud adran cyfrolau ar wahân yn uniongyrchol i'r adran gwasanaethau.

gitlab-podman.yml

version: '3.7'

services:
  gitlab:
    image: gitlab/gitlab-ce:latest
    hostname: gitlab.example.com
    restart: unless-stopped
    environment:
      GITLAB_OMNIBUS_CONFIG: |
        gitlab_rails['gitlab_shell_ssh_port'] = 22222
    ports:
      - "80:80"
      - "22222:22"
    volumes:
      - /srv/podman/gitlab/conf:/etc/gitlab
      - /srv/podman/gitlab/data:/var/opt/gitlab
      - /srv/podman/gitlab/logs:/var/log/gitlab
    networks:
      - gitlab

  gitlab-runner:
    image: gitlab/gitlab-runner:alpine
    restart: unless-stopped
    depends_on:
      - gitlab
    volumes:
      - /srv/podman/gitlab/runner:/etc/gitlab-runner
      - /var/run/docker.sock:/var/run/docker.sock
    networks:
      - gitlab

networks:
  gitlab:

# podman-compose -f gitlab-runner.yml -d up

Canlyniad y gwaith:

# podman ps
CONTAINER ID  IMAGE                                  COMMAND               CREATED             STATUS                 PORTS                                      NAMES
da53da946c01  docker.io/gitlab/gitlab-runner:alpine  run --user=gitlab...  About a minute ago  Up About a minute ago  0.0.0.0:22222->22/tcp, 0.0.0.0:80->80/tcp  root_gitlab-runner_1
781c0103c94a  docker.io/gitlab/gitlab-ce:latest      /assets/wrapper       About a minute ago  Up About a minute ago  0.0.0.0:22222->22/tcp, 0.0.0.0:80->80/tcp  root_gitlab_1

Gadewch i ni weld beth fydd yn ei gynhyrchu ar gyfer systemd a kubernetes, ar gyfer hyn mae angen i ni ddarganfod enw neu ID y pod:

# podman pod ls
POD ID         NAME   STATUS    CREATED          # OF CONTAINERS   INFRA ID
71fc2b2a5c63   root   Running   11 minutes ago   3                 db40ab8bf84b

Kubernetes:

# podman generate kube 71fc2b2a5c63
# Generation of Kubernetes YAML is still under development!
#
# Save the output of this file and use kubectl create -f to import
# it into Kubernetes.
#
# Created with podman-1.6.4
apiVersion: v1
kind: Pod
metadata:
  creationTimestamp: "2020-07-29T19:22:40Z"
  labels:
    app: root
  name: root
spec:
  containers:
  - command:
    - /assets/wrapper
    env:
    - name: PATH
      value: /opt/gitlab/embedded/bin:/opt/gitlab/bin:/assets:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin
    - name: TERM
      value: xterm
    - name: HOSTNAME
      value: gitlab.example.com
    - name: container
      value: podman
    - name: GITLAB_OMNIBUS_CONFIG
      value: |
        gitlab_rails['gitlab_shell_ssh_port'] = 22222
    - name: LANG
      value: C.UTF-8
    image: docker.io/gitlab/gitlab-ce:latest
    name: rootgitlab1
    ports:
    - containerPort: 22
      hostPort: 22222
      protocol: TCP
    - containerPort: 80
      hostPort: 80
      protocol: TCP
    resources: {}
    securityContext:
      allowPrivilegeEscalation: true
      capabilities: {}
      privileged: false
      readOnlyRootFilesystem: false
    volumeMounts:
    - mountPath: /var/opt/gitlab
      name: srv-podman-gitlab-data
    - mountPath: /var/log/gitlab
      name: srv-podman-gitlab-logs
    - mountPath: /etc/gitlab
      name: srv-podman-gitlab-conf
    workingDir: /
  - command:
    - run
    - --user=gitlab-runner
    - --working-directory=/home/gitlab-runner
    env:
    - name: PATH
      value: /usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin
    - name: TERM
      value: xterm
    - name: HOSTNAME
    - name: container
      value: podman
    image: docker.io/gitlab/gitlab-runner:alpine
    name: rootgitlab-runner1
    resources: {}
    securityContext:
      allowPrivilegeEscalation: true
      capabilities: {}
      privileged: false
      readOnlyRootFilesystem: false
    volumeMounts:
    - mountPath: /etc/gitlab-runner
      name: srv-podman-gitlab-runner
    - mountPath: /var/run/docker.sock
      name: var-run-docker.sock
    workingDir: /
  volumes:
  - hostPath:
      path: /srv/podman/gitlab/runner
      type: Directory
    name: srv-podman-gitlab-runner
  - hostPath:
      path: /var/run/docker.sock
      type: File
    name: var-run-docker.sock
  - hostPath:
      path: /srv/podman/gitlab/data
      type: Directory
    name: srv-podman-gitlab-data
  - hostPath:
      path: /srv/podman/gitlab/logs
      type: Directory
    name: srv-podman-gitlab-logs
  - hostPath:
      path: /srv/podman/gitlab/conf
      type: Directory
    name: srv-podman-gitlab-conf
status: {}

systemd:

# podman generate systemd 71fc2b2a5c63
# pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
# autogenerated by Podman 1.6.4
# Thu Jul 29 15:23:28 EDT 2020

[Unit]
Description=Podman pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
Documentation=man:podman-generate-systemd(1)
Requires=container-781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3.service container-da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864.service
Before=container-781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3.service container-da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864.service

[Service]
Restart=on-failure
ExecStart=/usr/bin/podman start db40ab8bf84bf35141159c26cb6e256b889c7a98c0418eee3c4aa683c14fccaa
ExecStop=/usr/bin/podman stop -t 10 db40ab8bf84bf35141159c26cb6e256b889c7a98c0418eee3c4aa683c14fccaa
KillMode=none
Type=forking
PIDFile=/var/run/containers/storage/overlay-containers/db40ab8bf84bf35141159c26cb6e256b889c7a98c0418eee3c4aa683c14fccaa/userdata/conmon.pid

[Install]
WantedBy=multi-user.target
# container-da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864.service
# autogenerated by Podman 1.6.4
# Thu Jul 29 15:23:28 EDT 2020

[Unit]
Description=Podman container-da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864.service
Documentation=man:podman-generate-systemd(1)
RefuseManualStart=yes
RefuseManualStop=yes
BindsTo=pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
After=pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service

[Service]
Restart=on-failure
ExecStart=/usr/bin/podman start da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864
ExecStop=/usr/bin/podman stop -t 10 da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864
KillMode=none
Type=forking
PIDFile=/var/run/containers/storage/overlay-containers/da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864/userdata/conmon.pid

[Install]
WantedBy=multi-user.target
# container-781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3.service
# autogenerated by Podman 1.6.4
# Thu Jul 29 15:23:28 EDT 2020

[Unit]
Description=Podman container-781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3.service
Documentation=man:podman-generate-systemd(1)
RefuseManualStart=yes
RefuseManualStop=yes
BindsTo=pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
After=pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service

[Service]
Restart=on-failure
ExecStart=/usr/bin/podman start 781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3
ExecStop=/usr/bin/podman stop -t 10 781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3
KillMode=none
Type=forking
PIDFile=/var/run/containers/storage/overlay-containers/781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3/userdata/conmon.pid

[Install]
WantedBy=multi-user.target

Yn anffodus, ar wahân i lansio cynwysyddion, nid yw'r uned a gynhyrchir ar gyfer systemd yn gwneud dim byd arall (er enghraifft, glanhau hen gynwysyddion pan fydd gwasanaeth o'r fath yn cael ei ailgychwyn), felly bydd yn rhaid i chi ychwanegu pethau o'r fath eich hun.

Mewn egwyddor, mae Podman yn ddigon i roi cynnig ar beth yw cynwysyddion, trosglwyddo hen gyfluniadau ar gyfer cyfansoddi docwyr, ac yna mynd tuag at Kubernetes, os oes angen, ar glwstwr, neu gael dewis arall haws ei ddefnyddio yn lle Docker.

rkt

Prosiect wedi mynd i'r archif tua chwe mis yn ôl oherwydd bod RedHat wedi'i brynu, felly ni fyddaf yn aros arno'n fwy manwl. Yn gyffredinol, gadawodd argraff dda iawn, ond o'i gymharu â Docker, a hyd yn oed yn fwy felly i Podman, mae'n edrych fel cyfuniad. Roedd yna hefyd ddosbarthiad CoreOS wedi'i adeiladu ar ben rkt (er bod ganddyn nhw Docker yn wreiddiol), ond daeth hynny i ben hefyd ar ôl prynu RedHat.

Plas

Mwy un prosiect, yr oedd ei awdur eisiau adeiladu a rhedeg cynwysyddion yn unig. A barnu yn ôl y ddogfennaeth a'r cod, ni ddilynodd yr awdur y safonau, ond yn syml penderfynodd ysgrifennu ei weithrediad ei hun, a wnaeth, mewn egwyddor.

Canfyddiadau

Mae'r sefyllfa gyda Kubernetes yn ddiddorol iawn: ar y naill law, gyda Docker, gallwch chi ymgynnull clwstwr (yn y modd heidio), y gallwch chi hyd yn oed redeg amgylcheddau cynhyrchu ar gyfer cleientiaid gyda nhw, mae hyn yn arbennig o wir ar gyfer timau bach (3-5 o bobl ), neu gyda llwyth cyffredinol bach , neu'r diffyg awydd i ddeall cymhlethdodau sefydlu Kubernetes, gan gynnwys ar gyfer llwythi uchel.

Nid yw Podman yn darparu cydnawsedd llawn, ond mae ganddo un fantais bwysig - cydnawsedd â Kubernetes, gan gynnwys offer ychwanegol (buildah ac eraill). Felly, byddaf yn mynd at y dewis o offeryn ar gyfer gwaith fel a ganlyn: ar gyfer timau bach, neu gyda chyllideb gyfyngedig - Docker (gyda modd haid posibl), ar gyfer datblygu i mi fy hun ar localhost personol - cymrodyr Podman, ac i bawb arall - Kubernetes.

Nid wyf yn siŵr na fydd y sefyllfa gyda Docker yn newid yn y dyfodol, wedi'r cyfan, maent yn arloeswyr, ac maent hefyd yn safoni'n araf gam wrth gam, ond mae Podman, gyda'i holl ddiffygion (yn gweithio ar Linux yn unig, nid oes clystyru , mae camau gweithredu'r cynulliad a chamau gweithredu eraill yn benderfyniadau trydydd parti) mae'r dyfodol yn gliriach, felly rwy'n gwahodd pawb i drafod y canfyddiadau hyn yn y sylwadau.

PS Ar Awst 3 rydym yn lansio "Cwrs fideo Dockerlle gallwch ddysgu mwy am ei waith. Byddwn yn dadansoddi ei holl offer: o dyniadau sylfaenol i baramedrau rhwydwaith, arlliwiau gweithio gyda systemau gweithredu amrywiol ac ieithoedd rhaglennu. Byddwch yn dod yn gyfarwydd â'r dechnoleg ac yn deall ble a sut orau i ddefnyddio Docker. Byddwn hefyd yn rhannu achosion arfer gorau.

Cost archebu ymlaen llaw cyn rhyddhau: 5000 rubles. Gellir dod o hyd i'r rhaglen "Cwrs Fideo Docker". ar dudalen y cwrs.

Ffynhonnell: hab.com

Ychwanegu sylw