Docker και όλα, όλα, όλα

TL;DR: Ένα άρθρο επισκόπησης - ένας οδηγός για τη σύγκριση περιβαλλόντων για την εκτέλεση εφαρμογών σε κοντέινερ. Θα εξεταστούν οι δυνατότητες του Docker και άλλων παρόμοιων συστημάτων.

Docker και όλα, όλα, όλα

Μια μικρή ιστορία για το από πού προήλθαν όλα

Ιστορία

Ο πρώτος γνωστός τρόπος απομόνωσης μιας εφαρμογής είναι το chroot. Η κλήση συστήματος με το ίδιο όνομα παρέχει μια αλλαγή στον ριζικό κατάλογο - παρέχοντας έτσι πρόσβαση στο πρόγραμμα που το κάλεσε, πρόσβαση μόνο σε αρχεία μέσα σε αυτόν τον κατάλογο. Αλλά εάν στο πρόγραμμα δοθούν δικαιώματα υπερχρήστη μέσα, μπορεί ενδεχομένως να «ξεφύγει» από το chroot και να αποκτήσει πρόσβαση στο κύριο λειτουργικό σύστημα. Επίσης, εκτός από την αλλαγή του ριζικού καταλόγου, δεν περιορίζονται άλλοι πόροι (RAM, επεξεργαστής), καθώς και η πρόσβαση στο δίκτυο.

Ο επόμενος τρόπος είναι να εκκινήσετε ένα πλήρες λειτουργικό σύστημα μέσα στο κοντέινερ, χρησιμοποιώντας τους μηχανισμούς του πυρήνα του λειτουργικού συστήματος. Αυτή η μέθοδος ονομάζεται διαφορετικά σε διαφορετικά λειτουργικά συστήματα, αλλά η ουσία είναι η ίδια - τρέχει πολλά ανεξάρτητα λειτουργικά συστήματα, καθένα από τα οποία εκτελείται στον ίδιο πυρήνα που τρέχει το κύριο λειτουργικό σύστημα. Αυτό περιλαμβάνει FreeBSD Jails, Solaris Zones, OpenVZ και LXC για Linux. Η απομόνωση παρέχεται όχι μόνο για χώρο στο δίσκο, αλλά και για άλλους πόρους, ειδικότερα, κάθε κοντέινερ μπορεί να έχει περιορισμούς στο χρόνο του επεξεργαστή, στη μνήμη RAM, στο εύρος ζώνης δικτύου. Σε σύγκριση με το chroot, η έξοδος από το κοντέινερ είναι πιο δύσκολη, καθώς ο υπερχρήστης στο κοντέινερ έχει πρόσβαση μόνο στο εσωτερικό του κοντέινερ, ωστόσο, λόγω της ανάγκης να διατηρείται ενημερωμένο το λειτουργικό σύστημα μέσα στο δοχείο και της χρήσης παλιού πυρήνα εκδόσεις (σχετικές για το Linux, σε μικρότερο βαθμό το FreeBSD), υπάρχει μη μηδενική πιθανότητα να «σπάσει» το σύστημα απομόνωσης του πυρήνα και να αποκτήσει πρόσβαση στο κύριο λειτουργικό σύστημα.

Αντί να ξεκινήσετε ένα πλήρες λειτουργικό σύστημα σε ένα κοντέινερ (με σύστημα προετοιμασίας, διαχειριστή πακέτων κ.λπ.), οι εφαρμογές μπορούν να ξεκινήσουν αμέσως, το κύριο πράγμα είναι να παρέχετε στις εφαρμογές αυτή την ευκαιρία (παρουσία των απαραίτητων βιβλιοθηκών και Άλλα αρχεία). Αυτή η ιδέα χρησίμευσε ως βάση για την εικονικοποίηση εφαρμογών με εμπορευματοκιβώτια, ο πιο εξέχων και γνωστός εκπρόσωπος της οποίας είναι ο Docker. Σε σύγκριση με προηγούμενα συστήματα, πιο ευέλικτοι μηχανισμοί απομόνωσης, μαζί με την ενσωματωμένη υποστήριξη για εικονικά δίκτυα μεταξύ κοντέινερ και την κατάσταση κατάστασης εφαρμογών μέσα σε ένα κοντέινερ, είχαν ως αποτέλεσμα τη δυνατότητα δημιουργίας ενός ενιαίου ολιστικού περιβάλλοντος από μεγάλο αριθμό φυσικών διακομιστών για εκτέλεση κοντέινερ - χωρίς την ανάγκη για χειροκίνητη διαχείριση πόρων.

Λιμενεργάτης

Το Docker είναι το πιο γνωστό λογισμικό κοντέινερ εφαρμογών. Γραπτό στη γλώσσα Go, χρησιμοποιεί τις κανονικές δυνατότητες του πυρήνα Linux - cgroups, χώρους ονομάτων, δυνατότητες κ.λπ., καθώς και συστήματα αρχείων Aufs και άλλα παρόμοια για εξοικονόμηση χώρου στο δίσκο.

Docker και όλα, όλα, όλα
Πηγή: wikimedia

Αρχιτεκτονική

Πριν από την έκδοση 1.11, το Docker λειτουργούσε ως μια ενιαία υπηρεσία που εκτελούσε όλες τις λειτουργίες με κοντέινερ: λήψη εικόνων για κοντέινερ, εκκίνηση κοντέινερ, επεξεργασία αιτημάτων API. Από την έκδοση 1.11, το Docker έχει χωριστεί σε πολλά μέρη που αλληλεπιδρούν μεταξύ τους: container, για να χειριστεί ολόκληρο τον κύκλο ζωής των κοντέινερ (κατανομή χώρου στο δίσκο, λήψη εικόνων, δικτύωση, εκκίνηση, εγκατάσταση και παρακολούθηση της κατάστασης των κοντέινερ) και runC , χρόνους εκτέλεσης κοντέινερ, με βάση τη χρήση cgroups και άλλες δυνατότητες του πυρήνα Linux. Η ίδια η υπηρεσία docker παραμένει, αλλά τώρα χρησιμεύει μόνο για την επεξεργασία αιτημάτων API που μεταδίδονται σε κοντέινερ.

Docker και όλα, όλα, όλα

Εγκατάσταση και διαμόρφωση

Ο αγαπημένος μου τρόπος εγκατάστασης του docker είναι το docker-machine, το οποίο, εκτός από την απευθείας εγκατάσταση και διαμόρφωση του docker σε απομακρυσμένους διακομιστές (συμπεριλαμβανομένων των διάφορων cloud), σας επιτρέπει να εργάζεστε με τα συστήματα αρχείων των απομακρυσμένων διακομιστών και μπορείτε επίσης να εκτελέσετε διάφορες εντολές.

Ωστόσο, από το 2018, το έργο δεν έχει αναπτυχθεί σχεδόν καθόλου, επομένως θα το εγκαταστήσουμε με τον συνηθισμένο τρόπο για τις περισσότερες διανομές Linux - προσθέτοντας ένα αποθετήριο και εγκαθιστώντας τα απαραίτητα πακέτα.

Αυτή η μέθοδος χρησιμοποιείται επίσης για αυτοματοποιημένη εγκατάσταση, για παράδειγμα, χρησιμοποιώντας Ansible ή άλλα παρόμοια συστήματα, αλλά δεν θα την εξετάσω σε αυτό το άρθρο.

Η εγκατάσταση θα πραγματοποιηθεί στο Centos 7, θα χρησιμοποιήσω μια εικονική μηχανή ως διακομιστή, για εγκατάσταση, απλώς εκτελέστε τις παρακάτω εντολές:

# yum install -y yum-utils
# yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo
# yum install docker-ce docker-ce-cli containerd.io

Μετά την εγκατάσταση, πρέπει να ξεκινήσετε την υπηρεσία, να την βάλετε σε αυτόματη φόρτωση:

# systemctl enable docker
# systemctl start docker
# firewall-cmd --zone=public --add-port=2377/tcp --permanent

Επιπλέον, μπορείτε να δημιουργήσετε μια ομάδα docker, της οποίας οι χρήστες θα μπορούν να εργαστούν με docker χωρίς sudo, να ρυθμίσουν την καταγραφή, να ενεργοποιήσουν την πρόσβαση στο API από έξω, να μην ξεχάσετε να ρυθμίσετε το τείχος προστασίας (ό,τι δεν επιτρέπεται είναι απαγορεύεται στα παραπάνω και παρακάτω παραδείγματα - το παρέλειψα για απλότητα και οπτικοποίηση), αλλά δεν θα μπω σε περισσότερες λεπτομέρειες εδώ.

Άλλα χαρακτηριστικά

Εκτός από το παραπάνω μηχάνημα docker, υπάρχει επίσης ένα μητρώο docker, ένα εργαλείο για την αποθήκευση εικόνων για κοντέινερ, καθώς και το docker compose - ένα εργαλείο για την αυτοματοποίηση της ανάπτυξης εφαρμογών σε κοντέινερ, τα αρχεία YAML χρησιμοποιούνται για τη δημιουργία και τη διαμόρφωση κοντέινερ και άλλα σχετικά πράγματα (για παράδειγμα, δίκτυα, μόνιμα συστήματα αρχείων για την αποθήκευση δεδομένων).

Μπορεί επίσης να χρησιμοποιηθεί για την οργάνωση αγωγών για CICD. Ένα άλλο ενδιαφέρον χαρακτηριστικό είναι η εργασία σε λειτουργία συμπλέγματος, η λεγόμενη λειτουργία σμήνος (πριν από την έκδοση 1.12 ήταν γνωστή ως σμήνος docker), η οποία σας επιτρέπει να συναρμολογήσετε μια ενιαία υποδομή από πολλούς διακομιστές για την εκτέλεση κοντέινερ. Υπάρχει υποστήριξη για εικονικό δίκτυο πάνω από όλους τους διακομιστές, υπάρχει ενσωματωμένος εξισορροπητής φορτίου, καθώς και υποστήριξη για μυστικά για κοντέινερ.

Τα αρχεία YAML από το docker compose μπορούν να χρησιμοποιηθούν για τέτοια συμπλέγματα με μικρές τροποποιήσεις, αυτοματοποιώντας πλήρως τη συντήρηση μικρών και μεσαίων συμπλεγμάτων για διάφορους σκοπούς. Για μεγάλα συμπλέγματα, το Kubernetes είναι προτιμότερο, επειδή το κόστος συντήρησης σε λειτουργία σμήνος μπορεί να υπερβεί αυτό του Kubernetes. Εκτός από το runC, ως περιβάλλον εκτέλεσης για κοντέινερ, μπορείτε να εγκαταστήσετε, για παράδειγμα Εμπορευματοκιβώτια Kata

Εργασία με το Docker

Μετά την εγκατάσταση και τη διαμόρφωση, θα προσπαθήσουμε να δημιουργήσουμε ένα σύμπλεγμα στο οποίο θα αναπτύξουμε το GitLab και το Docker Registry για την ομάδα ανάπτυξης. Ως διακομιστές, θα χρησιμοποιήσω τρεις εικονικές μηχανές, στις οποίες θα αναπτύξω επιπρόσθετα το κατανεμημένο FS του GlusterFS, θα το χρησιμοποιήσω ως χώρο αποθήκευσης τόμων docker, για παράδειγμα, για να εκτελέσω μια ασφαλή έκδοση του μητρώου docker. Βασικά στοιχεία προς εκτέλεση: Docker Registry, Postgresql, Redis, GitLab με υποστήριξη για το GitLab Runner πάνω από το Swarm. Το Postgresql θα κυκλοφορήσει με ομαδοποίηση Στόλον, επομένως δεν χρειάζεται να χρησιμοποιήσετε το GlusterFS για την αποθήκευση δεδομένων Postgresql. Τα υπόλοιπα κρίσιμα δεδομένα θα αποθηκευτούν στο GlusterFS.

Για να αναπτύξετε το GlusterFS σε όλους τους διακομιστές (ονομάζονται node1, node2, node3), πρέπει να εγκαταστήσετε πακέτα, να ενεργοποιήσετε το τείχος προστασίας, να δημιουργήσετε τους απαραίτητους καταλόγους:

# yum -y install centos-release-gluster7
# yum -y install glusterfs-server
# systemctl enable glusterd
# systemctl start glusterd
# firewall-cmd --add-service=glusterfs --permanent
# firewall-cmd --reload
# mkdir -p /srv/gluster
# mkdir -p /srv/docker
# echo "$(hostname):/docker /srv/docker glusterfs defaults,_netdev 0 0" >> /etc/fstab

Μετά την εγκατάσταση, οι εργασίες για τη διαμόρφωση του GlusterFS πρέπει να συνεχιστούν από έναν κόμβο, για παράδειγμα τον κόμβο1:

# gluster peer probe node2
# gluster peer probe node3
# gluster volume create docker replica 3 node1:/srv/gluster node2:/srv/gluster node3:/srv/gluster force
# gluster volume start docker

Στη συνέχεια, πρέπει να προσαρτήσετε τον τόμο που προκύπτει (η εντολή πρέπει να εκτελείται σε όλους τους διακομιστές):

# mount /srv/docker

Η λειτουργία Swarm έχει ρυθμιστεί σε έναν από τους διακομιστές, ο οποίος θα είναι Leader, οι υπόλοιποι θα πρέπει να ενταχθούν στο σύμπλεγμα, επομένως το αποτέλεσμα της εκτέλεσης της εντολής στον πρώτο διακομιστή θα πρέπει να αντιγραφεί και να εκτελεστεί στους υπόλοιπους.

Αρχική ρύθμιση συμπλέγματος, εκτελώ την εντολή στον κόμβο1:

# docker swarm init
Swarm initialized: current node (a5jpfrh5uvo7svzz1ajduokyq) is now a manager.

To add a worker to this swarm, run the following command:

    docker swarm join --token SWMTKN-1-0c5mf7mvzc7o7vjk0wngno2dy70xs95tovfxbv4tqt9280toku-863hyosdlzvd76trfptd4xnzd xx.xx.xx.xx:2377

To add a manager to this swarm, run 'docker swarm join-token manager' and follow the instructions.
# docker swarm join-token manager

Αντιγράψτε το αποτέλεσμα της δεύτερης εντολής, εκτελέστε στον κόμβο2 και στον κόμβο3:

# docker swarm join --token SWMTKN-x-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx-xxxxxxxxx xx.xx.xx.xx:2377
This node joined a swarm as a manager.

Αυτό ολοκληρώνει την προκαταρκτική διαμόρφωση των διακομιστών, ας ξεκινήσουμε τη διαμόρφωση των υπηρεσιών, οι εντολές που θα εκτελεστούν θα εκκινηθούν από τον κόμβο1, εκτός εάν ορίζεται διαφορετικά.

Πρώτα απ 'όλα, ας δημιουργήσουμε δίκτυα για κοντέινερ:

# docker network create --driver=overlay etcd
# docker network create --driver=overlay pgsql
# docker network create --driver=overlay redis
# docker network create --driver=overlay traefik
# docker network create --driver=overlay gitlab

Στη συνέχεια επισημαίνουμε τους διακομιστές, αυτό είναι απαραίτητο για τη σύνδεση ορισμένων υπηρεσιών με τους διακομιστές:

# docker node update --label-add nodename=node1 node1
# docker node update --label-add nodename=node2 node2
# docker node update --label-add nodename=node3 node3

Στη συνέχεια, δημιουργούμε καταλόγους για την αποθήκευση δεδομένων etcd, την αποθήκευση KV που χρειάζονται οι Traefik και Stolon. Παρόμοια με το Postgresql, αυτά θα είναι κοντέινερ συνδεδεμένα με διακομιστές, επομένως εκτελούμε αυτήν την εντολή σε όλους τους διακομιστές:

# mkdir -p /srv/etcd

Στη συνέχεια, δημιουργήστε ένα αρχείο για τη διαμόρφωση του etcd και εφαρμόστε το:

00etcd.yml

version: '3.7'

services:
  etcd1:
    image: quay.io/coreos/etcd:latest
    hostname: etcd1
    command:
      - etcd
      - --name=etcd1
      - --data-dir=/data.etcd
      - --advertise-client-urls=http://etcd1:2379
      - --listen-client-urls=http://0.0.0.0:2379
      - --initial-advertise-peer-urls=http://etcd1:2380
      - --listen-peer-urls=http://0.0.0.0:2380
      - --initial-cluster=etcd1=http://etcd1:2380,etcd2=http://etcd2:2380,etcd3=http://etcd3:2380
      - --initial-cluster-state=new
      - --initial-cluster-token=etcd-cluster
    networks:
      - etcd
    volumes:
      - etcd1vol:/data.etcd
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node1]
  etcd2:
    image: quay.io/coreos/etcd:latest
    hostname: etcd2
    command:
      - etcd
      - --name=etcd2
      - --data-dir=/data.etcd
      - --advertise-client-urls=http://etcd2:2379
      - --listen-client-urls=http://0.0.0.0:2379
      - --initial-advertise-peer-urls=http://etcd2:2380
      - --listen-peer-urls=http://0.0.0.0:2380
      - --initial-cluster=etcd1=http://etcd1:2380,etcd2=http://etcd2:2380,etcd3=http://etcd3:2380
      - --initial-cluster-state=new
      - --initial-cluster-token=etcd-cluster
    networks:
      - etcd
    volumes:
      - etcd2vol:/data.etcd
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node2]
  etcd3:
    image: quay.io/coreos/etcd:latest
    hostname: etcd3
    command:
      - etcd
      - --name=etcd3
      - --data-dir=/data.etcd
      - --advertise-client-urls=http://etcd3:2379
      - --listen-client-urls=http://0.0.0.0:2379
      - --initial-advertise-peer-urls=http://etcd3:2380
      - --listen-peer-urls=http://0.0.0.0:2380
      - --initial-cluster=etcd1=http://etcd1:2380,etcd2=http://etcd2:2380,etcd3=http://etcd3:2380
      - --initial-cluster-state=new
      - --initial-cluster-token=etcd-cluster
    networks:
      - etcd
    volumes:
      - etcd3vol:/data.etcd
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node3]

volumes:
  etcd1vol:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/etcd"
  etcd2vol:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/etcd"
  etcd3vol:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/etcd"

networks:
  etcd:
    external: true

# docker stack deploy --compose-file 00etcd.yml etcd

Μετά από λίγο, ελέγχουμε ότι το σύμπλεγμα etcd έχει ανέβει:

# docker exec $(docker ps | awk '/etcd/ {print $1}')  etcdctl member list
ade526d28b1f92f7: name=etcd1 peerURLs=http://etcd1:2380 clientURLs=http://etcd1:2379 isLeader=false
bd388e7810915853: name=etcd3 peerURLs=http://etcd3:2380 clientURLs=http://etcd3:2379 isLeader=false
d282ac2ce600c1ce: name=etcd2 peerURLs=http://etcd2:2380 clientURLs=http://etcd2:2379 isLeader=true
# docker exec $(docker ps | awk '/etcd/ {print $1}')  etcdctl cluster-health
member ade526d28b1f92f7 is healthy: got healthy result from http://etcd1:2379
member bd388e7810915853 is healthy: got healthy result from http://etcd3:2379
member d282ac2ce600c1ce is healthy: got healthy result from http://etcd2:2379
cluster is healthy

Δημιουργήστε καταλόγους για Postgresql, εκτελέστε την εντολή σε όλους τους διακομιστές:

# mkdir -p /srv/pgsql

Στη συνέχεια, δημιουργήστε ένα αρχείο για να διαμορφώσετε το Postgresql:

01pgsql.yml

version: '3.7'

services:
  pgsentinel:
    image: sorintlab/stolon:master-pg10
    command:
      - gosu
      - stolon
      - stolon-sentinel
      - --cluster-name=stolon-cluster
      - --store-backend=etcdv3
      - --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
      - --log-level=debug
    networks:
      - etcd
      - pgsql
    deploy:
      replicas: 3
      update_config:
        parallelism: 1
        delay: 30s
        order: stop-first
        failure_action: pause
  pgkeeper1:
    image: sorintlab/stolon:master-pg10
    hostname: pgkeeper1
    command:
      - gosu
      - stolon
      - stolon-keeper
      - --pg-listen-address=pgkeeper1
      - --pg-repl-username=replica
      - --uid=pgkeeper1
      - --pg-su-username=postgres
      - --pg-su-passwordfile=/run/secrets/pgsql
      - --pg-repl-passwordfile=/run/secrets/pgsql_repl
      - --data-dir=/var/lib/postgresql/data
      - --cluster-name=stolon-cluster
      - --store-backend=etcdv3
      - --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
    networks:
      - etcd
      - pgsql
    environment:
      - PGDATA=/var/lib/postgresql/data
    volumes:
      - pgkeeper1:/var/lib/postgresql/data
    secrets:
      - pgsql
      - pgsql_repl
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node1]
  pgkeeper2:
    image: sorintlab/stolon:master-pg10
    hostname: pgkeeper2
    command:
      - gosu
      - stolon 
      - stolon-keeper
      - --pg-listen-address=pgkeeper2
      - --pg-repl-username=replica
      - --uid=pgkeeper2
      - --pg-su-username=postgres
      - --pg-su-passwordfile=/run/secrets/pgsql
      - --pg-repl-passwordfile=/run/secrets/pgsql_repl
      - --data-dir=/var/lib/postgresql/data
      - --cluster-name=stolon-cluster
      - --store-backend=etcdv3
      - --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
    networks:
      - etcd
      - pgsql
    environment:
      - PGDATA=/var/lib/postgresql/data
    volumes:
      - pgkeeper2:/var/lib/postgresql/data
    secrets:
      - pgsql
      - pgsql_repl
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node2]
  pgkeeper3:
    image: sorintlab/stolon:master-pg10
    hostname: pgkeeper3
    command:
      - gosu
      - stolon 
      - stolon-keeper
      - --pg-listen-address=pgkeeper3
      - --pg-repl-username=replica
      - --uid=pgkeeper3
      - --pg-su-username=postgres
      - --pg-su-passwordfile=/run/secrets/pgsql
      - --pg-repl-passwordfile=/run/secrets/pgsql_repl
      - --data-dir=/var/lib/postgresql/data
      - --cluster-name=stolon-cluster
      - --store-backend=etcdv3
      - --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
    networks:
      - etcd
      - pgsql
    environment:
      - PGDATA=/var/lib/postgresql/data
    volumes:
      - pgkeeper3:/var/lib/postgresql/data
    secrets:
      - pgsql
      - pgsql_repl
    deploy:
      replicas: 1
      placement:
        constraints: [node.labels.nodename == node3]
  postgresql:
    image: sorintlab/stolon:master-pg10
    command: gosu stolon stolon-proxy --listen-address 0.0.0.0 --cluster-name stolon-cluster --store-backend=etcdv3 --store-endpoints http://etcd1:2379,http://etcd2:2379,http://etcd3:2379
    networks:
      - etcd
      - pgsql
    deploy:
      replicas: 3
      update_config:
        parallelism: 1
        delay: 30s
        order: stop-first
        failure_action: rollback

volumes:
  pgkeeper1:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/pgsql"
  pgkeeper2:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/pgsql"
  pgkeeper3:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/pgsql"

secrets:
  pgsql:
    file: "/srv/docker/postgres"
  pgsql_repl:
    file: "/srv/docker/replica"

networks:
  etcd:
    external: true
  pgsql:
    external: true

Δημιουργούμε μυστικά, εφαρμόζουμε το αρχείο:

# </dev/urandom tr -dc 234567890qwertyuopasdfghjkzxcvbnmQWERTYUPASDFGHKLZXCVBNM | head -c $(((RANDOM%3)+15)) > /srv/docker/replica
# </dev/urandom tr -dc 234567890qwertyuopasdfghjkzxcvbnmQWERTYUPASDFGHKLZXCVBNM | head -c $(((RANDOM%3)+15)) > /srv/docker/postgres
# docker stack deploy --compose-file 01pgsql.yml pgsql

Λίγο καιρό αργότερα (δείτε την έξοδο της εντολής υπηρεσία docker lsότι όλες οι υπηρεσίες έχουν αυξηθεί) αρχικοποιήστε το σύμπλεγμα Postgresql:

# docker exec $(docker ps | awk '/pgkeeper/ {print $1}') stolonctl --cluster-name=stolon-cluster --store-backend=etcdv3 --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379 init

Έλεγχος της ετοιμότητας του συμπλέγματος Postgresql:

# docker exec $(docker ps | awk '/pgkeeper/ {print $1}') stolonctl --cluster-name=stolon-cluster --store-backend=etcdv3 --store-endpoints=http://etcd1:2379,http://etcd2:2379,http://etcd3:2379 status
=== Active sentinels ===

ID      LEADER
26baa11d    false
74e98768    false
a8cb002b    true

=== Active proxies ===

ID
4d233826
9f562f3b
b0c79ff1

=== Keepers ===

UID     HEALTHY PG LISTENADDRESS    PG HEALTHY  PG WANTEDGENERATION PG CURRENTGENERATION
pgkeeper1   true    pgkeeper1:5432         true     2           2
pgkeeper2   true    pgkeeper2:5432          true            2                   2
pgkeeper3   true    pgkeeper3:5432          true            3                   3

=== Cluster Info ===

Master Keeper: pgkeeper3

===== Keepers/DB tree =====

pgkeeper3 (master)
├─pgkeeper2
└─pgkeeper1

Διαμορφώνουμε το traefik ώστε να ανοίγει την πρόσβαση σε κοντέινερ από το εξωτερικό:

03traefik.yml

version: '3.7'

services:
  traefik:
    image: traefik:latest
    command: >
      --log.level=INFO
      --providers.docker=true
      --entryPoints.web.address=:80
      --providers.providersThrottleDuration=2
      --providers.docker.watch=true
      --providers.docker.swarmMode=true
      --providers.docker.swarmModeRefreshSeconds=15s
      --providers.docker.exposedbydefault=false
      --accessLog.bufferingSize=0
      --api=true
      --api.dashboard=true
      --api.insecure=true
    networks:
      - traefik
    ports:
      - 80:80
    volumes:
      - /var/run/docker.sock:/var/run/docker.sock
    deploy:
      replicas: 3
      placement:
        constraints:
          - node.role == manager
        preferences:
          - spread: node.id
      labels:
        - traefik.enable=true
        - traefik.http.routers.traefik.rule=Host(`traefik.example.com`)
        - traefik.http.services.traefik.loadbalancer.server.port=8080
        - traefik.docker.network=traefik

networks:
  traefik:
    external: true

# docker stack deploy --compose-file 03traefik.yml traefik

Ξεκινάμε το Redis Cluster, για αυτό δημιουργούμε έναν κατάλογο αποθήκευσης σε όλους τους κόμβους:

# mkdir -p /srv/redis

05redis.yml

version: '3.7'

services:
  redis-master:
    image: 'bitnami/redis:latest'
    networks:
      - redis
    ports:
      - '6379:6379'
    environment:
      - REDIS_REPLICATION_MODE=master
      - REDIS_PASSWORD=xxxxxxxxxxx
    deploy:
      mode: global
      restart_policy:
        condition: any
    volumes:
      - 'redis:/opt/bitnami/redis/etc/'

  redis-replica:
    image: 'bitnami/redis:latest'
    networks:
      - redis
    ports:
      - '6379'
    depends_on:
      - redis-master
    environment:
      - REDIS_REPLICATION_MODE=slave
      - REDIS_MASTER_HOST=redis-master
      - REDIS_MASTER_PORT_NUMBER=6379
      - REDIS_MASTER_PASSWORD=xxxxxxxxxxx
      - REDIS_PASSWORD=xxxxxxxxxxx
    deploy:
      mode: replicated
      replicas: 3
      update_config:
        parallelism: 1
        delay: 10s
      restart_policy:
        condition: any

  redis-sentinel:
    image: 'bitnami/redis:latest'
    networks:
      - redis
    ports:
      - '16379'
    depends_on:
      - redis-master
      - redis-replica
    entrypoint: |
      bash -c 'bash -s <<EOF
      "/bin/bash" -c "cat <<EOF > /opt/bitnami/redis/etc/sentinel.conf
      port 16379
      dir /tmp
      sentinel monitor master-node redis-master 6379 2
      sentinel down-after-milliseconds master-node 5000
      sentinel parallel-syncs master-node 1
      sentinel failover-timeout master-node 5000
      sentinel auth-pass master-node xxxxxxxxxxx
      sentinel announce-ip redis-sentinel
      sentinel announce-port 16379
      EOF"
      "/bin/bash" -c "redis-sentinel /opt/bitnami/redis/etc/sentinel.conf"
      EOF'
    deploy:
      mode: global
      restart_policy:
        condition: any

volumes:
  redis:
    driver: local
    driver_opts:
      type: 'none'
      o: 'bind'
      device: "/srv/redis"

networks:
  redis:
    external: true

# docker stack deploy --compose-file 05redis.yml redis

Προσθήκη μητρώου Docker:

06registry.yml

version: '3.7'

services:
  registry:
    image: registry:2.6
    networks:
      - traefik
    volumes:
      - registry_data:/var/lib/registry
    deploy:
      replicas: 1
      placement:
        constraints: [node.role == manager]
      restart_policy:
        condition: on-failure
      labels:
        - traefik.enable=true
        - traefik.http.routers.registry.rule=Host(`registry.example.com`)
        - traefik.http.services.registry.loadbalancer.server.port=5000
        - traefik.docker.network=traefik

volumes:
  registry_data:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/docker/registry"

networks:
  traefik:
    external: true

# mkdir /srv/docker/registry
# docker stack deploy --compose-file 06registry.yml registry

Και τέλος - GitLab:

08gitlab-runner.yml

version: '3.7'

services:
  gitlab:
    image: gitlab/gitlab-ce:latest
    networks:
      - pgsql
      - redis
      - traefik
      - gitlab
    ports:
      - 22222:22
    environment:
      GITLAB_OMNIBUS_CONFIG: |
        postgresql['enable'] = false
        redis['enable'] = false
        gitlab_rails['registry_enabled'] = false
        gitlab_rails['db_username'] = "gitlab"
        gitlab_rails['db_password'] = "XXXXXXXXXXX"
        gitlab_rails['db_host'] = "postgresql"
        gitlab_rails['db_port'] = "5432"
        gitlab_rails['db_database'] = "gitlab"
        gitlab_rails['db_adapter'] = 'postgresql'
        gitlab_rails['db_encoding'] = 'utf8'
        gitlab_rails['redis_host'] = 'redis-master'
        gitlab_rails['redis_port'] = '6379'
        gitlab_rails['redis_password'] = 'xxxxxxxxxxx'
        gitlab_rails['smtp_enable'] = true
        gitlab_rails['smtp_address'] = "smtp.yandex.ru"
        gitlab_rails['smtp_port'] = 465
        gitlab_rails['smtp_user_name'] = "[email protected]"
        gitlab_rails['smtp_password'] = "xxxxxxxxx"
        gitlab_rails['smtp_domain'] = "example.com"
        gitlab_rails['gitlab_email_from'] = '[email protected]'
        gitlab_rails['smtp_authentication'] = "login"
        gitlab_rails['smtp_tls'] = true
        gitlab_rails['smtp_enable_starttls_auto'] = true
        gitlab_rails['smtp_openssl_verify_mode'] = 'peer'
        external_url 'http://gitlab.example.com/'
        gitlab_rails['gitlab_shell_ssh_port'] = 22222
    volumes:
      - gitlab_conf:/etc/gitlab
      - gitlab_logs:/var/log/gitlab
      - gitlab_data:/var/opt/gitlab
    deploy:
      mode: replicated
      replicas: 1
      placement:
        constraints:
        - node.role == manager
      labels:
        - traefik.enable=true
        - traefik.http.routers.gitlab.rule=Host(`gitlab.example.com`)
        - traefik.http.services.gitlab.loadbalancer.server.port=80
        - traefik.docker.network=traefik
  gitlab-runner:
    image: gitlab/gitlab-runner:latest
    networks:
      - gitlab
    volumes:
      - gitlab_runner_conf:/etc/gitlab
      - /var/run/docker.sock:/var/run/docker.sock
    deploy:
      mode: replicated
      replicas: 1
      placement:
        constraints:
        - node.role == manager

volumes:
  gitlab_conf:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/docker/gitlab/conf"
  gitlab_logs:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/docker/gitlab/logs"
  gitlab_data:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/docker/gitlab/data"
  gitlab_runner_conf:
    driver: local
    driver_opts:
      type: none
      o: bind
      device: "/srv/docker/gitlab/runner"

networks:
  pgsql:
    external: true
  redis:
    external: true
  traefik:
    external: true
  gitlab:
    external: true

# mkdir -p /srv/docker/gitlab/conf
# mkdir -p /srv/docker/gitlab/logs
# mkdir -p /srv/docker/gitlab/data
# mkdir -p /srv/docker/gitlab/runner
# docker stack deploy --compose-file 08gitlab-runner.yml gitlab

Η τελική κατάσταση του συμπλέγματος και των υπηρεσιών:

# docker service ls
ID                  NAME                   MODE                REPLICAS            IMAGE                          PORTS
lef9n3m92buq        etcd_etcd1             replicated          1/1                 quay.io/coreos/etcd:latest
ij6uyyo792x5        etcd_etcd2             replicated          1/1                 quay.io/coreos/etcd:latest
fqttqpjgp6pp        etcd_etcd3             replicated          1/1                 quay.io/coreos/etcd:latest
hq5iyga28w33        gitlab_gitlab          replicated          1/1                 gitlab/gitlab-ce:latest        *:22222->22/tcp
dt7s6vs0q4qc        gitlab_gitlab-runner   replicated          1/1                 gitlab/gitlab-runner:latest
k7uoezno0h9n        pgsql_pgkeeper1        replicated          1/1                 sorintlab/stolon:master-pg10
cnrwul4r4nse        pgsql_pgkeeper2        replicated          1/1                 sorintlab/stolon:master-pg10
frflfnpty7tr        pgsql_pgkeeper3        replicated          1/1                 sorintlab/stolon:master-pg10
x7pqqchi52kq        pgsql_pgsentinel       replicated          3/3                 sorintlab/stolon:master-pg10
mwu2wl8fti4r        pgsql_postgresql       replicated          3/3                 sorintlab/stolon:master-pg10
9hkbe2vksbzb        redis_redis-master     global              3/3                 bitnami/redis:latest           *:6379->6379/tcp
l88zn8cla7dc        redis_redis-replica    replicated          3/3                 bitnami/redis:latest           *:30003->6379/tcp
1utp309xfmsy        redis_redis-sentinel   global              3/3                 bitnami/redis:latest           *:30002->16379/tcp
oteb824ylhyp        registry_registry      replicated          1/1                 registry:2.6
qovrah8nzzu8        traefik_traefik        replicated          3/3                 traefik:latest                 *:80->80/tcp, *:443->443/tcp

Τι άλλο μπορεί να βελτιωθεί; Φροντίστε να ρυθμίσετε το Traefik ώστε να λειτουργεί με κοντέινερ https, προσθέστε κρυπτογράφηση tls για Postgresql και Redis. Αλλά γενικά, μπορείτε ήδη να το δώσετε σε προγραμματιστές ως PoC. Ας δούμε τώρα εναλλακτικές λύσεις για το Docker.

Πόντμαν

Ένας άλλος αρκετά γνωστός κινητήρας για τη λειτουργία εμπορευματοκιβωτίων ομαδοποιημένα ανά λοβό (λοβό, ομάδες κοντέινερ που αναπτύσσονται μαζί). Σε αντίθεση με το Docker, δεν απαιτεί καμία υπηρεσία για την εκτέλεση κοντέινερ, όλη η εργασία γίνεται μέσω της βιβλιοθήκης libpod. Επίσης γραμμένο στο Go, χρειάζεται χρόνο εκτέλεσης συμβατό με το OCI για την εκτέλεση κοντέινερ όπως το runC.

Docker και όλα, όλα, όλα

Το να δουλεύεις με το Podman γενικά μοιάζει με αυτό του Docker, στο βαθμό που μπορείς να το κάνεις έτσι (υποστηρίζεται από πολλούς που το έχουν δοκιμάσει, συμπεριλαμβανομένου του συγγραφέα αυτού του άρθρου):

$ alias docker=podman

και μπορείς να συνεχίσεις να δουλεύεις. Γενικά, η κατάσταση με το Podman είναι πολύ ενδιαφέρουσα, γιατί αν οι πρώτες εκδόσεις του Kubernetes δούλευαν με το Docker, τότε από το 2015 περίπου, μετά την τυποποίηση του κόσμου των κοντέινερ (OCI - Open Container Initiative) και τον διαχωρισμό του Docker σε container και runC, μια εναλλακτική λύση στο Το Docker αναπτύσσεται για εκτέλεση στο Kubernetes: CRI-O. Το Podman από αυτή την άποψη είναι μια εναλλακτική του Docker, που βασίζεται στις αρχές του Kubernetes, συμπεριλαμβανομένης της ομαδοποίησης εμπορευματοκιβωτίων, αλλά ο κύριος στόχος του έργου είναι η εκτέλεση κοντέινερ τύπου Docker χωρίς πρόσθετες υπηρεσίες. Για προφανείς λόγους, δεν υπάρχει λειτουργία σμήνος, αφού οι προγραμματιστές λένε ξεκάθαρα ότι αν χρειάζεστε ένα σύμπλεγμα, πάρτε το Kubernetes.

Εγκατάσταση

Για εγκατάσταση στο Centos 7, απλώς ενεργοποιήστε το αποθετήριο Extras και, στη συνέχεια, εγκαταστήστε τα πάντα με την εντολή:

# yum -y install podman

Άλλα χαρακτηριστικά

Το Podman μπορεί να δημιουργήσει μονάδες για το systemd, λύνοντας έτσι το πρόβλημα της εκκίνησης κοντέινερ μετά από επανεκκίνηση διακομιστή. Επιπλέον, το systemd δηλώνεται ότι λειτουργεί σωστά ως pid 1 στο κοντέινερ. Για τη δημιουργία κοντέινερ, υπάρχει ένα ξεχωριστό εργαλείο buildah, υπάρχουν επίσης εργαλεία τρίτων - ανάλογα του docker-compose, τα οποία δημιουργούν επίσης αρχεία διαμόρφωσης συμβατά με Kubernetes, επομένως η μετάβαση από το Podman στο Kubernetes είναι όσο το δυνατόν πιο απλή.

Συνεργασία με τον Podman

Δεδομένου ότι δεν υπάρχει λειτουργία σμήνος (υποτίθεται ότι θα μεταβεί σε Kubernetes εάν χρειάζεται ένα σύμπλεγμα), θα το συναρμολογήσουμε σε ξεχωριστά δοχεία.

Εγκαταστήστε το podman-compose:

# yum -y install python3-pip
# pip3 install podman-compose

Το αρχείο διαμόρφωσης που προκύπτει για το podman είναι ελαφρώς διαφορετικό, καθώς για παράδειγμα έπρεπε να μετακινήσουμε μια ξεχωριστή ενότητα τόμων απευθείας στην ενότητα υπηρεσιών.

gitlab-podman.yml

version: '3.7'

services:
  gitlab:
    image: gitlab/gitlab-ce:latest
    hostname: gitlab.example.com
    restart: unless-stopped
    environment:
      GITLAB_OMNIBUS_CONFIG: |
        gitlab_rails['gitlab_shell_ssh_port'] = 22222
    ports:
      - "80:80"
      - "22222:22"
    volumes:
      - /srv/podman/gitlab/conf:/etc/gitlab
      - /srv/podman/gitlab/data:/var/opt/gitlab
      - /srv/podman/gitlab/logs:/var/log/gitlab
    networks:
      - gitlab

  gitlab-runner:
    image: gitlab/gitlab-runner:alpine
    restart: unless-stopped
    depends_on:
      - gitlab
    volumes:
      - /srv/podman/gitlab/runner:/etc/gitlab-runner
      - /var/run/docker.sock:/var/run/docker.sock
    networks:
      - gitlab

networks:
  gitlab:

# podman-compose -f gitlab-runner.yml -d up

Αποτέλεσμα εργασίας:

# podman ps
CONTAINER ID  IMAGE                                  COMMAND               CREATED             STATUS                 PORTS                                      NAMES
da53da946c01  docker.io/gitlab/gitlab-runner:alpine  run --user=gitlab...  About a minute ago  Up About a minute ago  0.0.0.0:22222->22/tcp, 0.0.0.0:80->80/tcp  root_gitlab-runner_1
781c0103c94a  docker.io/gitlab/gitlab-ce:latest      /assets/wrapper       About a minute ago  Up About a minute ago  0.0.0.0:22222->22/tcp, 0.0.0.0:80->80/tcp  root_gitlab_1

Ας δούμε τι θα δημιουργήσει για το systemd και το kubernetes, για αυτό πρέπει να μάθουμε το όνομα ή το αναγνωριστικό του pod:

# podman pod ls
POD ID         NAME   STATUS    CREATED          # OF CONTAINERS   INFRA ID
71fc2b2a5c63   root   Running   11 minutes ago   3                 db40ab8bf84b

Kubernetes:

# podman generate kube 71fc2b2a5c63
# Generation of Kubernetes YAML is still under development!
#
# Save the output of this file and use kubectl create -f to import
# it into Kubernetes.
#
# Created with podman-1.6.4
apiVersion: v1
kind: Pod
metadata:
  creationTimestamp: "2020-07-29T19:22:40Z"
  labels:
    app: root
  name: root
spec:
  containers:
  - command:
    - /assets/wrapper
    env:
    - name: PATH
      value: /opt/gitlab/embedded/bin:/opt/gitlab/bin:/assets:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin
    - name: TERM
      value: xterm
    - name: HOSTNAME
      value: gitlab.example.com
    - name: container
      value: podman
    - name: GITLAB_OMNIBUS_CONFIG
      value: |
        gitlab_rails['gitlab_shell_ssh_port'] = 22222
    - name: LANG
      value: C.UTF-8
    image: docker.io/gitlab/gitlab-ce:latest
    name: rootgitlab1
    ports:
    - containerPort: 22
      hostPort: 22222
      protocol: TCP
    - containerPort: 80
      hostPort: 80
      protocol: TCP
    resources: {}
    securityContext:
      allowPrivilegeEscalation: true
      capabilities: {}
      privileged: false
      readOnlyRootFilesystem: false
    volumeMounts:
    - mountPath: /var/opt/gitlab
      name: srv-podman-gitlab-data
    - mountPath: /var/log/gitlab
      name: srv-podman-gitlab-logs
    - mountPath: /etc/gitlab
      name: srv-podman-gitlab-conf
    workingDir: /
  - command:
    - run
    - --user=gitlab-runner
    - --working-directory=/home/gitlab-runner
    env:
    - name: PATH
      value: /usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin
    - name: TERM
      value: xterm
    - name: HOSTNAME
    - name: container
      value: podman
    image: docker.io/gitlab/gitlab-runner:alpine
    name: rootgitlab-runner1
    resources: {}
    securityContext:
      allowPrivilegeEscalation: true
      capabilities: {}
      privileged: false
      readOnlyRootFilesystem: false
    volumeMounts:
    - mountPath: /etc/gitlab-runner
      name: srv-podman-gitlab-runner
    - mountPath: /var/run/docker.sock
      name: var-run-docker.sock
    workingDir: /
  volumes:
  - hostPath:
      path: /srv/podman/gitlab/runner
      type: Directory
    name: srv-podman-gitlab-runner
  - hostPath:
      path: /var/run/docker.sock
      type: File
    name: var-run-docker.sock
  - hostPath:
      path: /srv/podman/gitlab/data
      type: Directory
    name: srv-podman-gitlab-data
  - hostPath:
      path: /srv/podman/gitlab/logs
      type: Directory
    name: srv-podman-gitlab-logs
  - hostPath:
      path: /srv/podman/gitlab/conf
      type: Directory
    name: srv-podman-gitlab-conf
status: {}

systemd:

# podman generate systemd 71fc2b2a5c63
# pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
# autogenerated by Podman 1.6.4
# Thu Jul 29 15:23:28 EDT 2020

[Unit]
Description=Podman pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
Documentation=man:podman-generate-systemd(1)
Requires=container-781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3.service container-da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864.service
Before=container-781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3.service container-da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864.service

[Service]
Restart=on-failure
ExecStart=/usr/bin/podman start db40ab8bf84bf35141159c26cb6e256b889c7a98c0418eee3c4aa683c14fccaa
ExecStop=/usr/bin/podman stop -t 10 db40ab8bf84bf35141159c26cb6e256b889c7a98c0418eee3c4aa683c14fccaa
KillMode=none
Type=forking
PIDFile=/var/run/containers/storage/overlay-containers/db40ab8bf84bf35141159c26cb6e256b889c7a98c0418eee3c4aa683c14fccaa/userdata/conmon.pid

[Install]
WantedBy=multi-user.target
# container-da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864.service
# autogenerated by Podman 1.6.4
# Thu Jul 29 15:23:28 EDT 2020

[Unit]
Description=Podman container-da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864.service
Documentation=man:podman-generate-systemd(1)
RefuseManualStart=yes
RefuseManualStop=yes
BindsTo=pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
After=pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service

[Service]
Restart=on-failure
ExecStart=/usr/bin/podman start da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864
ExecStop=/usr/bin/podman stop -t 10 da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864
KillMode=none
Type=forking
PIDFile=/var/run/containers/storage/overlay-containers/da53da946c01449f500aa5296d9ea6376f751948b17ca164df438b7df6607864/userdata/conmon.pid

[Install]
WantedBy=multi-user.target
# container-781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3.service
# autogenerated by Podman 1.6.4
# Thu Jul 29 15:23:28 EDT 2020

[Unit]
Description=Podman container-781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3.service
Documentation=man:podman-generate-systemd(1)
RefuseManualStart=yes
RefuseManualStop=yes
BindsTo=pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service
After=pod-71fc2b2a5c6346f0c1c86a2dc45dbe78fa192ea02aac001eb8347ccb8c043c26.service

[Service]
Restart=on-failure
ExecStart=/usr/bin/podman start 781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3
ExecStop=/usr/bin/podman stop -t 10 781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3
KillMode=none
Type=forking
PIDFile=/var/run/containers/storage/overlay-containers/781c0103c94aaa113c17c58d05ddabf8df4bf39707b664abcf17ed2ceff467d3/userdata/conmon.pid

[Install]
WantedBy=multi-user.target

Δυστυχώς, εκτός από τη λειτουργία κοντέινερ, η παραγόμενη μονάδα για το systemd δεν κάνει τίποτα άλλο (για παράδειγμα, καθαρισμός παλιών κοντέινερ κατά την επανεκκίνηση μιας τέτοιας υπηρεσίας), οπότε θα πρέπει να προσθέσετε τέτοια πράγματα μόνοι σας.

Κατ 'αρχήν, το Podman αρκεί για να δοκιμάσει τι είναι τα κοντέινερ, να μεταφέρει παλιές διαμορφώσεις για το docker-compose και, στη συνέχεια, να πάει προς το Kubernetes, εάν είναι απαραίτητο, σε ένα σύμπλεγμα ή να πάρει μια πιο εύχρηστη εναλλακτική του Docker.

rkt

Σχέδιο πήγε στο αρχείο πριν από περίπου έξι μήνες λόγω του ότι το αγόρασε η RedHat, οπότε δεν θα σταθώ σε αυτό πιο αναλυτικά. Σε γενικές γραμμές άφησε πολύ καλές εντυπώσεις, αλλά σε σύγκριση με το Docker και πολύ περισσότερο με το Podman μοιάζει με συνδυασμό. Υπήρχε επίσης μια διανομή CoreOS που χτίστηκε πάνω από το rkt (αν και αρχικά είχαν Docker), αλλά έληξε επίσης μετά την αγορά του RedHat.

Ραντίζω

Περισσότερο ένα έργο, ο συγγραφέας του οποίου ήθελε απλώς να κατασκευάσει και να τρέξει κοντέινερ. Κρίνοντας από την τεκμηρίωση και τον κώδικα, ο συγγραφέας δεν ακολούθησε τα πρότυπα, αλλά απλώς αποφάσισε να γράψει τη δική του υλοποίηση, κάτι που, καταρχήν, έκανε.

Ευρήματα

Η κατάσταση με το Kubernetes είναι πολύ ενδιαφέρουσα: από τη μία πλευρά, με το Docker, μπορείτε να συναρμολογήσετε ένα σύμπλεγμα (σε λειτουργία σμήνος), με το οποίο μπορείτε ακόμη και να εκτελέσετε περιβάλλοντα παραγωγής για πελάτες, αυτό ισχύει ιδιαίτερα για μικρές ομάδες (3-5 άτομα ), είτε με μικρό συνολικό φορτίο , ή την έλλειψη επιθυμίας να κατανοήσουμε τις περιπλοκές της εγκατάστασης του Kubernetes, συμπεριλαμβανομένων των υψηλών φορτίων.

Το Podman δεν παρέχει πλήρη συμβατότητα, αλλά έχει ένα σημαντικό πλεονέκτημα - συμβατότητα με Kubernetes, συμπεριλαμβανομένων πρόσθετων εργαλείων (buildah και άλλα). Επομένως, θα προσεγγίσω την επιλογή ενός εργαλείου για εργασία ως εξής: για μικρές ομάδες ή με περιορισμένο προϋπολογισμό - Docker (με πιθανή λειτουργία σμήνος), για ανάπτυξη για τον εαυτό μου σε έναν προσωπικό τοπικό οικοδεσπότη - σύντροφοι Podman και για όλους τους άλλους - Kubernetes.

Δεν είμαι σίγουρος ότι η κατάσταση με το Docker δεν θα αλλάξει στο μέλλον, τελικά, είναι πρωτοπόροι, και επίσης σιγά σιγά τυποποιούνται βήμα-βήμα, αλλά το Podman, με όλες τις αδυναμίες του (λειτουργεί μόνο σε Linux, χωρίς συστάδες, συναρμολόγηση και άλλες ενέργειες είναι αποφάσεις τρίτων) το μέλλον είναι πιο ξεκάθαρο, γι' αυτό καλώ όλους να συζητήσουν αυτά τα ευρήματα στα σχόλια.

PS Στις 3 Αυγούστου ξεκινάμε το "Μάθημα βίντεο Dockerόπου μπορείτε να μάθετε περισσότερα για το έργο του. Θα αναλύσουμε όλα τα εργαλεία του: από βασικές αφαιρέσεις έως παραμέτρους δικτύου, αποχρώσεις εργασίας με διάφορα λειτουργικά συστήματα και γλώσσες προγραμματισμού. Θα εξοικειωθείτε με την τεχνολογία και θα καταλάβετε πού και πώς να χρησιμοποιήσετε καλύτερα το Docker. Θα μοιραστούμε επίσης περιπτώσεις βέλτιστων πρακτικών.

Κόστος προπαραγγελίας πριν από την κυκλοφορία: 5000 ρούβλια. Μπορείτε να βρείτε το πρόγραμμα "Docker Video Course". στη σελίδα του μαθήματος.

Πηγή: www.habr.com

Προσθέστε ένα σχόλιο