Побудова кластера PostgreSQL високої доступності з використанням Patroni, etcd, HAProxy

Так уже вийшло, що на момент постановки завдання я не володів достатнім ступенем досвідченості, щоб розробити і запустити це рішення самотужки. І тоді я почав гуглити.

Не знаю, в чому проблема, але вже вкотре я стикаюся з тим, що навіть якщо робити все покроково як у туторіалі, підготувати такий самий enviroment як у автора, то все одно ніколи нічого не працює. Поняття не маю, в чому тут справа, але коли я зіткнувся з цим у черговий раз, я вирішив — а напишу свій туторіал, коли все вийде. Той, який точно працюватиме.

Гайди в Інтернеті

Так уже вийшло, що інтернет не страждає від нестачі різних гайдів, туторіалів, step-by-step тощо. Так уже вийшло, що мені було поставлено завдання розробити рішення для зручної організації та побудови відмовостійкого кластера PostgreSQL, головними вимогами до якого були потокова реплікація з Master-сервера на всі репліки та автоматичне введення резерву при відмові Master-сервера.

На цьому етапі було визначено стек використовуваних технологій:

  • PostgreSQL як СУБД
  • Патрони як рішення для кластеризації
  • etcd як розподілене сховище для Patroni
  • HAproxy для організації єдиної точки входу для додатків, що використовують базу

Встановлення

До вашої уваги - побудова кластера PostgreSQL високої доступності з використанням Patroni, etcd, HAProxy.

Усі операції виконувались на віртуальних машинах із встановленою ОС Debian 10.

тощо

Не рекомендую встановлювати etcd на тих же машинах, де буде patroni і postgresql, так як для etcd дуже важливе навантаження на диски. Але з метою навчання, ми зробимо саме так.
Встановимо etcd.

#!/bin/bash
apt-get update
apt-get install etcd

Додайте вміст у файл /etc/default/etcd

[член]

ETCD_NAME=datanode1 # hostname вашої машини
ETCD_DATA_DIR="/var/lib/etcd/default.etcd"

ALL IP ADRESSES SHOULD BE VALID. LISTER PEER, CLIENT etc SHOULD BE SET TO IP ADDRESS OF HOST

ETCD_LISTEN_PEER_URLS=»http://192.168.0.143:2380» # адреса вашої машини
ETCD_LISTEN_CLIENT_URLS=»http://192.168.0.143:2379,http://127.0.0.1:2379» # адреса вашої машини

[cluster]

ETCD_INITIAL_ADVERTISE_PEER_URLS=»http://192.168.0.143:2380» # адреса вашої машини
ETCD_INITIAL_CLUSTER=»datanode1=http://192.168.0.143:2380,datanode2=http://192.168.0.144:2380,datanode3=http://192.168.0.145:2380» # адреси всіх машин у кластері etcd
ETCD_INITIAL_CLUSTER_STATE="new"
ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster-1"
ETCD_ADVERTISE_CLIENT_URLS=»http://192.168.0.143:2379» # адреса вашої машини

Виконайте команду

systemctl restart etcd

PostgreSQL 9.6 + Patroni

Перше, що необхідно зробити, це встановити три віртуальні машини для встановлення на них необхідного програмного забезпечення. Після встановлення машин, якщо ви слідуєте моєму туторіалу, ви можете запустити цей простий скрипт, який (майже) все зробить за вас. Запускається з-під root.

Зауважте, що скрипт використовує версію PostgreSQL 9.6, це обумовлено внутрішніми вимогами нашої компанії. Рішення не тестувалося на інших версіях PostgreSQL.

#!/bin/bash
apt-get install gnupg -y
echo "deb http://apt.postgresql.org/pub/repos/apt/ buster-pgdg main" >> /etc/apt/sources.list
wget --quiet -O - https://www.postgresql.org/media/keys/ACCC4CF8.asc | apt-key add -
apt-get update
apt-get install postgresql-9.6 python3-pip python3-dev libpq-dev -y
systemctl stop postgresql
pip3 install --upgrade pip
pip install psycopg2
pip install patroni[etcd]
echo "
[Unit]
Description=Runners to orchestrate a high-availability PostgreSQL
After=syslog.target network.target

[Service]
Type=simple

User=postgres
Group=postgres

ExecStart=/usr/local/bin/patroni /etc/patroni.yml

KillMode=process

TimeoutSec=30

Restart=no

[Install]
WantedBy=multi-user.targ
" > /etc/systemd/system/patroni.service
mkdir -p /data/patroni
chown postgres:postgres /data/patroni
chmod 700 /data/patroniпо
touch /etc/patroni.yml

Далі, у створений щойно файл /etc/patroni.yml вам необхідно помістити наступний вміст, звичайно ж змінивши ip-адреси у всіх місцях, на адреси, які ви використовуєте.
Зверніть увагу на коментарі в даному yaml. Змініть адреси на свої, на кожній машині кластера.

/etc/patroni.yml

scope: pgsql # должно быть одинаковым на всех нодах
namespace: /cluster/ # должно быть одинаковым на всех нодах
name: postgres1 # должно быть разным на всех нодах

restapi:
    listen: 192.168.0.143:8008 # адрес той ноды, в которой находится этот файл
    connect_address: 192.168.0.143:8008 # адрес той ноды, в которой находится этот файл

etcd:
    hosts: 192.168.0.143:2379,192.168.0.144:2379,192.168.0.145:2379 # перечислите здесь все ваши ноды, в случае если вы устанавливаете etcd на них же

# this section (bootstrap) will be written into Etcd:/<namespace>/<scope>/config after initializing new cluster
# and all other cluster members will use it as a `global configuration`
bootstrap:
    dcs:
        ttl: 100
        loop_wait: 10
        retry_timeout: 10
        maximum_lag_on_failover: 1048576
        postgresql:
            use_pg_rewind: true
            use_slots: true
            parameters:
                    wal_level: replica
                    hot_standby: "on"
                    wal_keep_segments: 5120
                    max_wal_senders: 5
                    max_replication_slots: 5
                    checkpoint_timeout: 30

    initdb:
    - encoding: UTF8
    - data-checksums
    - locale: en_US.UTF8
    # init pg_hba.conf должен содержать адреса ВСЕХ машин, используемых в кластере
    pg_hba:
    - host replication postgres ::1/128 md5
    - host replication postgres 127.0.0.1/8 md5
    - host replication postgres 192.168.0.143/24 md5
    - host replication postgres 192.168.0.144/24 md5
    - host replication postgres 192.168.0.145/24 md5
    - host all all 0.0.0.0/0 md5

    users:
        admin:
            password: admin
            options:
                - createrole
                - createdb

postgresql:
    listen: 192.168.0.143:5432 # адрес той ноды, в которой находится этот файл
    connect_address: 192.168.0.143:5432 # адрес той ноды, в которой находится этот файл
    data_dir: /data/patroni # эту директорию создаст скрипт, описанный выше и установит нужные права
    bin_dir:  /usr/lib/postgresql/9.6/bin # укажите путь до вашей директории с postgresql
    pgpass: /tmp/pgpass
    authentication:
        replication:
            username: postgres
            password: postgres
        superuser:
            username: postgres
            password: postgres
    create_replica_methods:
        basebackup:
            checkpoint: 'fast'
    parameters:
        unix_socket_directories: '.'

tags:
    nofailover: false
    noloadbalance: false
    clonefrom: false
    nosync: false

Скрипт необхідно запустити на виконання на всіх трьох машинах кластера, так само необхідно помістити наведену конфігурацію у файл /etc/patroni.yml на всіх машинах.

Коли ви проробите ці операції на всіх кластерних машинах, виконайте наступну команду на будь-якій з них

systemctl start patroni
systemctl start postgresql

Зачекайте близько 30 секунд, а потім виконайте цю команду на інших машинах кластера.

HAproxy

Ми використовуємо чудовий HAproxy для надання єдиної точки входу. Master-сервер завжди буде доступний за адресою машини, де розгорнуть HAproxy.

Для того, щоб не зробити машину з HAproxy єдиною точкою відмови, запустимо його в контейнері Docker, надалі його можна буде запустити в кластер K8's і зробити наш кластер відмов стійким ще більш надійним.

Створіть директорію, де ви зможете зберігати два файли - Dockerfile і haproxy.cfg. Перейдіть до неї.

Докер-файл

FROM ubuntu:latest

RUN apt-get update 
    && apt-get install -y haproxy rsyslog 
    && rm -rf /var/lib/apt/lists/*

RUN mkdir /run/haproxy

COPY haproxy.cfg /etc/haproxy/haproxy.cfg

CMD haproxy -f /etc/haproxy/haproxy.cfg && tail -F /var/log/haproxy.log

Будьте уважні, в останніх трьох рядках файлу haproxy.cfg повинні бути перераховані адреси ваших машин. HAproxy буде звертатися до Patroni, в HTTP-заголовках master-сервер завжди повертатиме 200, а replica - 503.

haproxy.cfg

global
    maxconn 100

defaults
    log global
    mode tcp
    retries 2
    timeout client 30m
    timeout connect 4s
    timeout server 30m
    timeout check 5s

listen stats
    mode http
    bind *:7000
    stats enable
    stats uri /

listen postgres
    bind *:5000
    option httpchk
    http-check expect status 200
    default-server inter 3s fall 3 rise 2 on-marked-down shutdown-sessions
    server postgresql1 192.168.0.143:5432 maxconn 100 check port 8008
    server postgresql2 192.168.0.144:5432 maxconn 100 check port 8008
    server postgresql3 192.168.0.145:5432 maxconn 100 check port 8008

Перебуваючи в директорії, в якій «лежать» обидва наші файли, послідовно виконаємо команди упаковки контейнера, а також його запуск з прокиданням необхідних портів:

docker build -t my-haproxy .
docker run -d -p5000:5000 -p7000:7000 my-haproxy 

Тепер, відкривши в браузері адресу вашої машини з HAproxy і вказавши порт 7000, ви побачите статистику кластера.

У стані UP буде той сервер, який є майстром, а репліки може DOWN. Це нормально, насправді вони працюють, але відображаються у такому вигляді через те, що повертають 503 на запити від HAproxy. Це дозволяє нам завжди точно знати, який із трьох серверів є майстром на даний момент.

Висновок

Ви чудові! Усього лише за 30 хвилин ви розгорнули відмінний відмовостійкий та продуктивний кластер баз даних із потоковою реплікацією та автоматичним введенням резерву. Якщо ви плануєте використати це рішення, ознайомтеся з офіційною документацією Patroni, особливо з її частиною, що стосується утиліти patronictl, що надає зручний доступ до управління вашим кластером.

Вітаю!

Джерело: habr.com

Додати коментар або відгук