Création d'un cluster PostgreSQL hautement disponible à l'aide de Patroni, etcd, HAProxy

Il se trouve qu’au moment où le problème s’est posé, je n’avais pas suffisamment d’expérience pour développer et lancer cette solution seul. Et puis j'ai commencé à chercher sur Google.

Je ne sais pas quel est le problème, mais pour la énième fois je suis confronté au fait que même si je fais tout étape par étape comme dans le tutoriel, en préparant le même environnement que l'auteur, alors rien ne fonctionne jamais. Je n’ai aucune idée de ce qui se passe, mais quand j’ai de nouveau rencontré ce problème, j’ai décidé d’écrire mon propre tutoriel lorsque tout se passerait bien. Celui qui fonctionnera certainement.

Guides sur Internet

Il se trouve qu'Internet ne souffre pas d'un manque de guides divers, de tutoriels, pas à pas, etc. Il se trouve que j'ai été chargé de développer une solution permettant d'organiser et de construire facilement un cluster PostgreSQL de basculement, dont les principales exigences étaient la réplication en continu du serveur maître vers toutes les répliques et le provisionnement automatique d'une réserve en cas de serveur maître. échec.

A ce stade, la pile de technologies utilisées a été déterminée :

  • PostgreSQL comme SGBD
  • patroni comme solution de clustering
  • etcd comme stockage distribué pour Patroni
  • HAproxy pour organiser un point d'entrée unique pour les applications utilisant la base de données

Installation

À votre attention - création d'un cluster PostgreSQL hautement disponible à l'aide de Patroni, etcd, HAProxy.

Toutes les opérations ont été effectuées sur des machines virtuelles sur lesquelles le système d'exploitation Debian 10 est installé.

etcd

Je ne recommande pas d'installer etcd sur les mêmes machines où seront situés patroni et postgresql, car la charge du disque est très importante pour etcd. Mais c’est exactement ce que nous ferons à des fins éducatives.
Installons etcd.

#!/bin/bash
apt-get update
apt-get install etcd

Ajouter du contenu au fichier /etc/default/etcd

[membre]

ETCD_NAME=datanode1 # nom d'hôte de votre machine
ETCD_DATA_DIR=”/var/lib/etcd/default.etcd”

TOUTES LES ADRESSES IP DOIVENT ÊTRE VALABLES. LISTER PEER, CLIENT, etc. DOIVENT ÊTRE RÉGLÉS SUR L'ADRESSE IP DE L'HÔTE

ETCD_LISTEN_PEER_URLS="http://192.168.0.143:2380» #adresse de votre voiture
ETCD_LISTEN_CLIENT_URLS="http://192.168.0.143:2379,http://127.0.0.1:2379» #adresse de votre voiture

[grappe]

ETCD_INITIAL_ADVERTISE_PEER_URLS="http://192.168.0.143:2380» #adresse de votre voiture
ETCD_INITIAL_CLUSTER=»datanode1=http://192.168.0.143:2380,datanode2=http://192.168.0.144:2380,datanode3=http://192.168.0.145:2380» # adresses de toutes les machines du cluster etcd
ETCD_INITIAL_CLUSTER_STATE="nouveau"
ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster-1″
ETCD_ADVERTISE_CLIENT_URLS="http://192.168.0.143:2379» #adresse de votre voiture

Exécutez la commande

systemctl restart etcd

PostgreSQL 9.6 + patrons

La première chose que vous devez faire est de configurer trois machines virtuelles pour y installer les logiciels nécessaires. Après avoir installé les machines, si vous suivez mon tutoriel, vous pourrez exécuter ce simple script qui fera (presque) tout pour vous. S'exécute en tant que root.

Veuillez noter que le script utilise PostgreSQL version 9.6, cela est dû aux exigences internes de notre entreprise. La solution n'a pas été testée sur d'autres versions de PostgreSQL.

#!/bin/bash
apt-get install gnupg -y
echo "deb http://apt.postgresql.org/pub/repos/apt/ buster-pgdg main" >> /etc/apt/sources.list
wget --quiet -O - https://www.postgresql.org/media/keys/ACCC4CF8.asc | apt-key add -
apt-get update
apt-get install postgresql-9.6 python3-pip python3-dev libpq-dev -y
systemctl stop postgresql
pip3 install --upgrade pip
pip install psycopg2
pip install patroni[etcd]
echo "
[Unit]
Description=Runners to orchestrate a high-availability PostgreSQL
After=syslog.target network.target

[Service]
Type=simple

User=postgres
Group=postgres

ExecStart=/usr/local/bin/patroni /etc/patroni.yml

KillMode=process

TimeoutSec=30

Restart=no

[Install]
WantedBy=multi-user.targ
" > /etc/systemd/system/patroni.service
mkdir -p /data/patroni
chown postgres:postgres /data/patroni
chmod 700 /data/patroniпо
touch /etc/patroni.yml

Ensuite, dans le fichier /etc/patroni.yml que vous venez de créer, vous devez placer le contenu suivant, en remplaçant bien sûr les adresses IP à tous les endroits par les adresses que vous utilisez.
Faites attention aux commentaires dans ce yaml. Remplacez les adresses par les vôtres sur chaque machine du cluster.

/etc/patroni.yml

scope: pgsql # должно быть одинаковым на всех нодах
namespace: /cluster/ # должно быть одинаковым на всех нодах
name: postgres1 # должно быть разным на всех нодах

restapi:
    listen: 192.168.0.143:8008 # адрес той ноды, в которой находится этот файл
    connect_address: 192.168.0.143:8008 # адрес той ноды, в которой находится этот файл

etcd:
    hosts: 192.168.0.143:2379,192.168.0.144:2379,192.168.0.145:2379 # перечислите здесь все ваши ноды, в случае если вы устанавливаете etcd на них же

# this section (bootstrap) will be written into Etcd:/<namespace>/<scope>/config after initializing new cluster
# and all other cluster members will use it as a `global configuration`
bootstrap:
    dcs:
        ttl: 100
        loop_wait: 10
        retry_timeout: 10
        maximum_lag_on_failover: 1048576
        postgresql:
            use_pg_rewind: true
            use_slots: true
            parameters:
                    wal_level: replica
                    hot_standby: "on"
                    wal_keep_segments: 5120
                    max_wal_senders: 5
                    max_replication_slots: 5
                    checkpoint_timeout: 30

    initdb:
    - encoding: UTF8
    - data-checksums
    - locale: en_US.UTF8
    # init pg_hba.conf должен содержать адреса ВСЕХ машин, используемых в кластере
    pg_hba:
    - host replication postgres ::1/128 md5
    - host replication postgres 127.0.0.1/8 md5
    - host replication postgres 192.168.0.143/24 md5
    - host replication postgres 192.168.0.144/24 md5
    - host replication postgres 192.168.0.145/24 md5
    - host all all 0.0.0.0/0 md5

    users:
        admin:
            password: admin
            options:
                - createrole
                - createdb

postgresql:
    listen: 192.168.0.143:5432 # адрес той ноды, в которой находится этот файл
    connect_address: 192.168.0.143:5432 # адрес той ноды, в которой находится этот файл
    data_dir: /data/patroni # эту директорию создаст скрипт, описанный выше и установит нужные права
    bin_dir:  /usr/lib/postgresql/9.6/bin # укажите путь до вашей директории с postgresql
    pgpass: /tmp/pgpass
    authentication:
        replication:
            username: postgres
            password: postgres
        superuser:
            username: postgres
            password: postgres
    create_replica_methods:
        basebackup:
            checkpoint: 'fast'
    parameters:
        unix_socket_directories: '.'

tags:
    nofailover: false
    noloadbalance: false
    clonefrom: false
    nosync: false

Le script doit être exécuté sur les trois machines du cluster, et la configuration ci-dessus doit également être placée dans le fichier /etc/patroni.yml sur toutes les machines.

Une fois que vous avez terminé ces opérations sur toutes les machines du cluster, exécutez la commande suivante sur n'importe laquelle d'entre elles

systemctl start patroni
systemctl start postgresql

Attendez environ 30 secondes, puis exécutez cette commande sur les machines restantes du cluster.

HAproxy

Nous utilisons le merveilleux HAproxy pour fournir un point d'entrée unique. Le serveur maître sera toujours disponible à l'adresse de la machine sur laquelle HAproxy est déployé.

Afin de ne pas faire de la machine avec HAproxy un point de panne unique, nous la lancerons dans un conteneur Docker ; à l'avenir, elle pourra être lancée dans le cluster du K8 et fiabiliser encore plus notre cluster de basculement.

Créez un répertoire dans lequel vous pouvez stocker deux fichiers : Dockerfile et haproxy.cfg. Allez-y.

Dockerfile

FROM ubuntu:latest

RUN apt-get update 
    && apt-get install -y haproxy rsyslog 
    && rm -rf /var/lib/apt/lists/*

RUN mkdir /run/haproxy

COPY haproxy.cfg /etc/haproxy/haproxy.cfg

CMD haproxy -f /etc/haproxy/haproxy.cfg && tail -F /var/log/haproxy.log

Attention, les trois dernières lignes du fichier haproxy.cfg doivent lister les adresses de vos machines. HAproxy contactera Patroni, dans les en-têtes HTTP, le serveur maître renverra toujours 200 et la réplique renverra toujours 503.

haproxy.cfg

global
    maxconn 100

defaults
    log global
    mode tcp
    retries 2
    timeout client 30m
    timeout connect 4s
    timeout server 30m
    timeout check 5s

listen stats
    mode http
    bind *:7000
    stats enable
    stats uri /

listen postgres
    bind *:5000
    option httpchk
    http-check expect status 200
    default-server inter 3s fall 3 rise 2 on-marked-down shutdown-sessions
    server postgresql1 192.168.0.143:5432 maxconn 100 check port 8008
    server postgresql2 192.168.0.144:5432 maxconn 100 check port 8008
    server postgresql3 192.168.0.145:5432 maxconn 100 check port 8008

Étant dans le répertoire dans lequel « se trouvent » nos deux fichiers, exécutons séquentiellement les commandes pour emballer le conteneur, ainsi que pour le lancer avec la redirection des ports nécessaires :

docker build -t my-haproxy .
docker run -d -p5000:5000 -p7000:7000 my-haproxy 

Désormais, en ouvrant l'adresse de votre machine avec HAproxy dans le navigateur et en spécifiant le port 7000, vous verrez des statistiques sur votre cluster.

Le serveur qui est le maître sera à l'état UP et les réplicas seront à l'état DOWN. C'est normal, en fait ils fonctionnent, mais ils apparaissent ainsi car ils renvoient 503 pour les requêtes de HAproxy. Cela nous permet de toujours savoir exactement lequel des trois serveurs est le maître actuel.

Conclusion

Tu es magnifique! En seulement 30 minutes, vous avez déployé un excellent cluster de bases de données tolérant aux pannes et hautes performances avec réplication en continu et repli automatique. Si vous envisagez d'utiliser cette solution, consultez avec la documentation officielle Patroni, et notamment avec sa partie concernant l'utilitaire patronictl, qui permet d'accéder facilement à la gestion de votre cluster.

Félicitations!

Source: habr.com

Ajouter un commentaire