ProHoster > Blog > administration > Création d'un cluster PostgreSQL hautement disponible à l'aide de Patroni, etcd, HAProxy
Création d'un cluster PostgreSQL hautement disponible à l'aide de Patroni, etcd, HAProxy
Il se trouve qu’au moment où le problème s’est posé, je n’avais pas suffisamment d’expérience pour développer et lancer cette solution seul. Et puis j'ai commencé à chercher sur Google.
Je ne sais pas quel est le problème, mais pour la énième fois je suis confronté au fait que même si je fais tout étape par étape comme dans le tutoriel, en préparant le même environnement que l'auteur, alors rien ne fonctionne jamais. Je n’ai aucune idée de ce qui se passe, mais quand j’ai de nouveau rencontré ce problème, j’ai décidé d’écrire mon propre tutoriel lorsque tout se passerait bien. Celui qui fonctionnera certainement.
Guides sur Internet
Il se trouve qu'Internet ne souffre pas d'un manque de guides divers, de tutoriels, pas à pas, etc. Il se trouve que j'ai été chargé de développer une solution permettant d'organiser et de construire facilement un cluster PostgreSQL de basculement, dont les principales exigences étaient la réplication en continu du serveur maître vers toutes les répliques et le provisionnement automatique d'une réserve en cas de serveur maître. échec.
A ce stade, la pile de technologies utilisées a été déterminée :
HAproxy pour organiser un point d'entrée unique pour les applications utilisant la base de données
Installation
À votre attention - création d'un cluster PostgreSQL hautement disponible à l'aide de Patroni, etcd, HAProxy.
Toutes les opérations ont été effectuées sur des machines virtuelles sur lesquelles le système d'exploitation Debian 10 est installé.
etcd
Je ne recommande pas d'installer etcd sur les mêmes machines où seront situés patroni et postgresql, car la charge du disque est très importante pour etcd. Mais c’est exactement ce que nous ferons à des fins éducatives.
Installons etcd.
#!/bin/bash
apt-get update
apt-get install etcd
Ajouter du contenu au fichier /etc/default/etcd
[membre]
ETCD_NAME=datanode1 # nom d'hôte de votre machine
ETCD_DATA_DIR=”/var/lib/etcd/default.etcd”
TOUTES LES ADRESSES IP DOIVENT ÊTRE VALABLES. LISTER PEER, CLIENT, etc. DOIVENT ÊTRE RÉGLÉS SUR L'ADRESSE IP DE L'HÔTE
La première chose que vous devez faire est de configurer trois machines virtuelles pour y installer les logiciels nécessaires. Après avoir installé les machines, si vous suivez mon tutoriel, vous pourrez exécuter ce simple script qui fera (presque) tout pour vous. S'exécute en tant que root.
Veuillez noter que le script utilise PostgreSQL version 9.6, cela est dû aux exigences internes de notre entreprise. La solution n'a pas été testée sur d'autres versions de PostgreSQL.
Ensuite, dans le fichier /etc/patroni.yml que vous venez de créer, vous devez placer le contenu suivant, en remplaçant bien sûr les adresses IP à tous les endroits par les adresses que vous utilisez.
Faites attention aux commentaires dans ce yaml. Remplacez les adresses par les vôtres sur chaque machine du cluster.
/etc/patroni.yml
scope: pgsql # должно быть одинаковым на всех нодах
namespace: /cluster/ # должно быть одинаковым на всех нодах
name: postgres1 # должно быть разным на всех нодах
restapi:
listen: 192.168.0.143:8008 # адрес той ноды, в которой находится этот файл
connect_address: 192.168.0.143:8008 # адрес той ноды, в которой находится этот файл
etcd:
hosts: 192.168.0.143:2379,192.168.0.144:2379,192.168.0.145:2379 # перечислите здесь все ваши ноды, в случае если вы устанавливаете etcd на них же
# this section (bootstrap) will be written into Etcd:/<namespace>/<scope>/config after initializing new cluster
# and all other cluster members will use it as a `global configuration`
bootstrap:
dcs:
ttl: 100
loop_wait: 10
retry_timeout: 10
maximum_lag_on_failover: 1048576
postgresql:
use_pg_rewind: true
use_slots: true
parameters:
wal_level: replica
hot_standby: "on"
wal_keep_segments: 5120
max_wal_senders: 5
max_replication_slots: 5
checkpoint_timeout: 30
initdb:
- encoding: UTF8
- data-checksums
- locale: en_US.UTF8
# init pg_hba.conf должен содержать адреса ВСЕХ машин, используемых в кластере
pg_hba:
- host replication postgres ::1/128 md5
- host replication postgres 127.0.0.1/8 md5
- host replication postgres 192.168.0.143/24 md5
- host replication postgres 192.168.0.144/24 md5
- host replication postgres 192.168.0.145/24 md5
- host all all 0.0.0.0/0 md5
users:
admin:
password: admin
options:
- createrole
- createdb
postgresql:
listen: 192.168.0.143:5432 # адрес той ноды, в которой находится этот файл
connect_address: 192.168.0.143:5432 # адрес той ноды, в которой находится этот файл
data_dir: /data/patroni # эту директорию создаст скрипт, описанный выше и установит нужные права
bin_dir: /usr/lib/postgresql/9.6/bin # укажите путь до вашей директории с postgresql
pgpass: /tmp/pgpass
authentication:
replication:
username: postgres
password: postgres
superuser:
username: postgres
password: postgres
create_replica_methods:
basebackup:
checkpoint: 'fast'
parameters:
unix_socket_directories: '.'
tags:
nofailover: false
noloadbalance: false
clonefrom: false
nosync: false
Le script doit être exécuté sur les trois machines du cluster, et la configuration ci-dessus doit également être placée dans le fichier /etc/patroni.yml sur toutes les machines.
Une fois que vous avez terminé ces opérations sur toutes les machines du cluster, exécutez la commande suivante sur n'importe laquelle d'entre elles
Attendez environ 30 secondes, puis exécutez cette commande sur les machines restantes du cluster.
HAproxy
Nous utilisons le merveilleux HAproxy pour fournir un point d'entrée unique. Le serveur maître sera toujours disponible à l'adresse de la machine sur laquelle HAproxy est déployé.
Afin de ne pas faire de la machine avec HAproxy un point de panne unique, nous la lancerons dans un conteneur Docker ; à l'avenir, elle pourra être lancée dans le cluster du K8 et fiabiliser encore plus notre cluster de basculement.
Créez un répertoire dans lequel vous pouvez stocker deux fichiers : Dockerfile et haproxy.cfg. Allez-y.
Dockerfile
FROM ubuntu:latest
RUN apt-get update
&& apt-get install -y haproxy rsyslog
&& rm -rf /var/lib/apt/lists/*
RUN mkdir /run/haproxy
COPY haproxy.cfg /etc/haproxy/haproxy.cfg
CMD haproxy -f /etc/haproxy/haproxy.cfg && tail -F /var/log/haproxy.log
Attention, les trois dernières lignes du fichier haproxy.cfg doivent lister les adresses de vos machines. HAproxy contactera Patroni, dans les en-têtes HTTP, le serveur maître renverra toujours 200 et la réplique renverra toujours 503.
haproxy.cfg
global
maxconn 100
defaults
log global
mode tcp
retries 2
timeout client 30m
timeout connect 4s
timeout server 30m
timeout check 5s
listen stats
mode http
bind *:7000
stats enable
stats uri /
listen postgres
bind *:5000
option httpchk
http-check expect status 200
default-server inter 3s fall 3 rise 2 on-marked-down shutdown-sessions
server postgresql1 192.168.0.143:5432 maxconn 100 check port 8008
server postgresql2 192.168.0.144:5432 maxconn 100 check port 8008
server postgresql3 192.168.0.145:5432 maxconn 100 check port 8008
Étant dans le répertoire dans lequel « se trouvent » nos deux fichiers, exécutons séquentiellement les commandes pour emballer le conteneur, ainsi que pour le lancer avec la redirection des ports nécessaires :
Désormais, en ouvrant l'adresse de votre machine avec HAproxy dans le navigateur et en spécifiant le port 7000, vous verrez des statistiques sur votre cluster.
Le serveur qui est le maître sera à l'état UP et les réplicas seront à l'état DOWN. C'est normal, en fait ils fonctionnent, mais ils apparaissent ainsi car ils renvoient 503 pour les requêtes de HAproxy. Cela nous permet de toujours savoir exactement lequel des trois serveurs est le maître actuel.
Conclusion
Tu es magnifique! En seulement 30 minutes, vous avez déployé un excellent cluster de bases de données tolérant aux pannes et hautes performances avec réplication en continu et repli automatique. Si vous envisagez d'utiliser cette solution, consultez avec la documentation officielle Patroni, et notamment avec sa partie concernant l'utilitaire patronictl, qui permet d'accéder facilement à la gestion de votre cluster.