ProHoster > Блог > адміністрування > Побудова кластера PostgreSQL високої доступності з використанням Patroni, etcd, HAProxy
Побудова кластера PostgreSQL високої доступності з використанням Patroni, etcd, HAProxy
Так уже вийшло, що на момент постановки завдання я не володів достатнім ступенем досвідченості, щоб розробити і запустити це рішення самотужки. І тоді я почав гуглити.
Не знаю, в чому проблема, але вже вкотре я стикаюся з тим, що навіть якщо робити все покроково як у туторіалі, підготувати такий самий enviroment як у автора, то все одно ніколи нічого не працює. Поняття не маю, в чому тут справа, але коли я зіткнувся з цим у черговий раз, я вирішив — а напишу свій туторіал, коли все вийде. Той, який точно працюватиме.
Гайди в Інтернеті
Так уже вийшло, що інтернет не страждає від нестачі різних гайдів, туторіалів, step-by-step тощо. Так уже вийшло, що мені було поставлено завдання розробити рішення для зручної організації та побудови відмовостійкого кластера PostgreSQL, головними вимогами до якого були потокова реплікація з Master-сервера на всі репліки та автоматичне введення резерву при відмові Master-сервера.
На цьому етапі було визначено стек використовуваних технологій:
HAproxy для організації єдиної точки входу для додатків, що використовують базу
Встановлення
До вашої уваги - побудова кластера PostgreSQL високої доступності з використанням Patroni, etcd, HAProxy.
Усі операції виконувались на віртуальних машинах із встановленою ОС Debian 10.
тощо
Не рекомендую встановлювати etcd на тих же машинах, де буде patroni і postgresql, так як для etcd дуже важливе навантаження на диски. Але з метою навчання, ми зробимо саме так.
Встановимо etcd.
#!/bin/bash
apt-get update
apt-get install etcd
Додайте вміст у файл /etc/default/etcd
[член]
ETCD_NAME=datanode1 # hostname вашої машини
ETCD_DATA_DIR="/var/lib/etcd/default.etcd"
ALL IP ADRESSES SHOULD BE VALID. LISTER PEER, CLIENT etc SHOULD BE SET TO IP ADDRESS OF HOST
Перше, що необхідно зробити, це встановити три віртуальні машини для встановлення на них необхідного програмного забезпечення. Після встановлення машин, якщо ви слідуєте моєму туторіалу, ви можете запустити цей простий скрипт, який (майже) все зробить за вас. Запускається з-під root.
Зауважте, що скрипт використовує версію PostgreSQL 9.6, це обумовлено внутрішніми вимогами нашої компанії. Рішення не тестувалося на інших версіях PostgreSQL.
Далі, у створений щойно файл /etc/patroni.yml вам необхідно помістити наступний вміст, звичайно ж змінивши ip-адреси у всіх місцях, на адреси, які ви використовуєте.
Зверніть увагу на коментарі в даному yaml. Змініть адреси на свої, на кожній машині кластера.
/etc/patroni.yml
scope: pgsql # должно быть одинаковым на всех нодах
namespace: /cluster/ # должно быть одинаковым на всех нодах
name: postgres1 # должно быть разным на всех нодах
restapi:
listen: 192.168.0.143:8008 # адрес той ноды, в которой находится этот файл
connect_address: 192.168.0.143:8008 # адрес той ноды, в которой находится этот файл
etcd:
hosts: 192.168.0.143:2379,192.168.0.144:2379,192.168.0.145:2379 # перечислите здесь все ваши ноды, в случае если вы устанавливаете etcd на них же
# this section (bootstrap) will be written into Etcd:/<namespace>/<scope>/config after initializing new cluster
# and all other cluster members will use it as a `global configuration`
bootstrap:
dcs:
ttl: 100
loop_wait: 10
retry_timeout: 10
maximum_lag_on_failover: 1048576
postgresql:
use_pg_rewind: true
use_slots: true
parameters:
wal_level: replica
hot_standby: "on"
wal_keep_segments: 5120
max_wal_senders: 5
max_replication_slots: 5
checkpoint_timeout: 30
initdb:
- encoding: UTF8
- data-checksums
- locale: en_US.UTF8
# init pg_hba.conf должен содержать адреса ВСЕХ машин, используемых в кластере
pg_hba:
- host replication postgres ::1/128 md5
- host replication postgres 127.0.0.1/8 md5
- host replication postgres 192.168.0.143/24 md5
- host replication postgres 192.168.0.144/24 md5
- host replication postgres 192.168.0.145/24 md5
- host all all 0.0.0.0/0 md5
users:
admin:
password: admin
options:
- createrole
- createdb
postgresql:
listen: 192.168.0.143:5432 # адрес той ноды, в которой находится этот файл
connect_address: 192.168.0.143:5432 # адрес той ноды, в которой находится этот файл
data_dir: /data/patroni # эту директорию создаст скрипт, описанный выше и установит нужные права
bin_dir: /usr/lib/postgresql/9.6/bin # укажите путь до вашей директории с postgresql
pgpass: /tmp/pgpass
authentication:
replication:
username: postgres
password: postgres
superuser:
username: postgres
password: postgres
create_replica_methods:
basebackup:
checkpoint: 'fast'
parameters:
unix_socket_directories: '.'
tags:
nofailover: false
noloadbalance: false
clonefrom: false
nosync: false
Скрипт необхідно запустити на виконання на всіх трьох машинах кластера, так само необхідно помістити наведену конфігурацію у файл /etc/patroni.yml на всіх машинах.
Коли ви проробите ці операції на всіх кластерних машинах, виконайте наступну команду на будь-якій з них
Зачекайте близько 30 секунд, а потім виконайте цю команду на інших машинах кластера.
HAproxy
Ми використовуємо чудовий HAproxy для надання єдиної точки входу. Master-сервер завжди буде доступний за адресою машини, де розгорнуть HAproxy.
Для того, щоб не зробити машину з HAproxy єдиною точкою відмови, запустимо його в контейнері Docker, надалі його можна буде запустити в кластер K8's і зробити наш кластер відмов стійким ще більш надійним.
Створіть директорію, де ви зможете зберігати два файли - Dockerfile і haproxy.cfg. Перейдіть до неї.
Докер-файл
FROM ubuntu:latest
RUN apt-get update
&& apt-get install -y haproxy rsyslog
&& rm -rf /var/lib/apt/lists/*
RUN mkdir /run/haproxy
COPY haproxy.cfg /etc/haproxy/haproxy.cfg
CMD haproxy -f /etc/haproxy/haproxy.cfg && tail -F /var/log/haproxy.log
Будьте уважні, в останніх трьох рядках файлу haproxy.cfg повинні бути перераховані адреси ваших машин. HAproxy буде звертатися до Patroni, в HTTP-заголовках master-сервер завжди повертатиме 200, а replica - 503.
haproxy.cfg
global
maxconn 100
defaults
log global
mode tcp
retries 2
timeout client 30m
timeout connect 4s
timeout server 30m
timeout check 5s
listen stats
mode http
bind *:7000
stats enable
stats uri /
listen postgres
bind *:5000
option httpchk
http-check expect status 200
default-server inter 3s fall 3 rise 2 on-marked-down shutdown-sessions
server postgresql1 192.168.0.143:5432 maxconn 100 check port 8008
server postgresql2 192.168.0.144:5432 maxconn 100 check port 8008
server postgresql3 192.168.0.145:5432 maxconn 100 check port 8008
Перебуваючи в директорії, в якій «лежать» обидва наші файли, послідовно виконаємо команди упаковки контейнера, а також його запуск з прокиданням необхідних портів:
Тепер, відкривши в браузері адресу вашої машини з HAproxy і вказавши порт 7000, ви побачите статистику кластера.
У стані UP буде той сервер, який є майстром, а репліки може DOWN. Це нормально, насправді вони працюють, але відображаються у такому вигляді через те, що повертають 503 на запити від HAproxy. Це дозволяє нам завжди точно знати, який із трьох серверів є майстром на даний момент.
Висновок
Ви чудові! Усього лише за 30 хвилин ви розгорнули відмінний відмовостійкий та продуктивний кластер баз даних із потоковою реплікацією та автоматичним введенням резерву. Якщо ви плануєте використати це рішення, ознайомтеся з офіційною документацією Patroni, особливо з її частиною, що стосується утиліти patronictl, що надає зручний доступ до управління вашим кластером.