Изграждане на PostgreSQL клъстер с висока наличност с помощта на Patroni и др., HAProxy

Случи се така, че по време на поставянето на задачата нямах достатъчно опит, за да разработя и стартирам това решение сам. И тогава започнах да търся в гугъл.

Не знам каква е уловката, но за сетен път се натъквам на факта, че дори и да правите всичко стъпка по стъпка, както в урока, да подготвите същата среда като тази на автора, пак никога не работи. Нямам представа какво има, но когато отново се натъкнах на това, реших - и ще напиша моя урок, когато всичко се оправи. Такъв, който определено ще работи.

Ръководства в интернет

Така се случи, че Интернет не страда от липса на различни ръководства, уроци, стъпка по стъпка и други подобни. Случи се така, че ми беше възложена задачата да разработя решение за удобно организиране и изграждане на PostgreSQL failover cluster, основните изисквания за което бяха поточно репликиране от главния сървър към всички реплики и автоматичен резервен вариант, когато главният сървър се повреди.

На този етап беше определен набор от използвани технологии:

  • PostgreSQL като СУБД
  • Патрони като решение за клъстериране
  • etcd като разпределено хранилище за Patroni
  • HAproxy за организиране на единична входна точка за приложения, използващи базата данни

Инсталация

Вашето внимание е изграждането на PostgreSQL клъстер с висока наличност, използвайки Patroni, etcd, HAProxy.

Всички операции бяха извършени на виртуални машини с инсталирана Debian 10 OS.

и т.н.

Не препоръчвам да инсталирате etcd на същите машини, където ще бъдат разположени patroni и postgresql, тъй като натоварването на диска е много важно за etcd. Но за образователни цели ще направим точно това.
Инсталирайте и т.н.

#!/bin/bash
apt-get update
apt-get install etcd

Добавете съдържание към файла /etc/default/etcd

[член]

ETCD_NAME=datanode1 # име на хост на вашата машина
ETCD_DATA_DIR="/var/lib/etcd/default.etcd"

ВСИЧКИ IP АДРЕСИ ТРЯБВА ДА СА ВАЛИДНИ. LISTER PEER, CLIENT и т.н. ТРЯБВА ДА БЪДАТ НАСТРОЙКИ НА IP АДРЕС НА ХОСТ

ETCD_LISTEN_PEER_URLS="http://192.168.0.143:2380» # адрес на вашата машина
ETCD_LISTEN_CLIENT_URLS="http://192.168.0.143:2379,http://127.0.0.1:2379» # адрес на вашата машина

[клъстер]

ETCD_INITIAL_ADVERTISE_PEER_URLS="http://192.168.0.143:2380» # адрес на вашата машина
ETCD_INITIAL_CLUSTER="datanode1=http://192.168.0.143:2380,datanode2=http://192.168.0.144:2380,datanode3=http://192.168.0.145:2380» # адреси на всички машини в клъстера etcd
ETCD_INITIAL_CLUSTER_STATE="ново"
ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster-1"
ETCD_ADVERTISE_CLIENT_URLS="http://192.168.0.143:2379» # адрес на вашата машина

Изпълнете командата

systemctl restart etcd

PostgreSQL 9.6 + patroni

Първото нещо, което трябва да направите, е да настроите три виртуални машини, за да инсталирате необходимия софтуер на тях. След като инсталирате машините, ако следвате моя урок, можете да стартирате този прост скрипт, който (почти) ще направи всичко вместо вас. Работи като root.

Моля, обърнете внимание, че скриптът използва версия PostgreSQL 9.6, това се дължи на вътрешните изисквания на нашата компания. Решението не е тествано на други версии на PostgreSQL.

#!/bin/bash
apt-get install gnupg -y
echo "deb http://apt.postgresql.org/pub/repos/apt/ buster-pgdg main" >> /etc/apt/sources.list
wget --quiet -O - https://www.postgresql.org/media/keys/ACCC4CF8.asc | apt-key add -
apt-get update
apt-get install postgresql-9.6 python3-pip python3-dev libpq-dev -y
systemctl stop postgresql
pip3 install --upgrade pip
pip install psycopg2
pip install patroni[etcd]
echo "
[Unit]
Description=Runners to orchestrate a high-availability PostgreSQL
After=syslog.target network.target

[Service]
Type=simple

User=postgres
Group=postgres

ExecStart=/usr/local/bin/patroni /etc/patroni.yml

KillMode=process

TimeoutSec=30

Restart=no

[Install]
WantedBy=multi-user.targ
" > /etc/systemd/system/patroni.service
mkdir -p /data/patroni
chown postgres:postgres /data/patroni
chmod 700 /data/patroniпо
touch /etc/patroni.yml

След това във файла /etc/patroni.yml, който току-що създадохте, трябва да поставите следното съдържание, като разбира се промените ip адресите на всички места на адресите, които използвате.
Обърнете внимание на коментарите в този yaml. Променете адресите на вашите собствени на всяка машина в клъстера.

/etc/patroni.yml

scope: pgsql # должно быть одинаковым на всех нодах
namespace: /cluster/ # должно быть одинаковым на всех нодах
name: postgres1 # должно быть разным на всех нодах

restapi:
    listen: 192.168.0.143:8008 # адрес той ноды, в которой находится этот файл
    connect_address: 192.168.0.143:8008 # адрес той ноды, в которой находится этот файл

etcd:
    hosts: 192.168.0.143:2379,192.168.0.144:2379,192.168.0.145:2379 # перечислите здесь все ваши ноды, в случае если вы устанавливаете etcd на них же

# this section (bootstrap) will be written into Etcd:/<namespace>/<scope>/config after initializing new cluster
# and all other cluster members will use it as a `global configuration`
bootstrap:
    dcs:
        ttl: 100
        loop_wait: 10
        retry_timeout: 10
        maximum_lag_on_failover: 1048576
        postgresql:
            use_pg_rewind: true
            use_slots: true
            parameters:
                    wal_level: replica
                    hot_standby: "on"
                    wal_keep_segments: 5120
                    max_wal_senders: 5
                    max_replication_slots: 5
                    checkpoint_timeout: 30

    initdb:
    - encoding: UTF8
    - data-checksums
    - locale: en_US.UTF8
    # init pg_hba.conf должен содержать адреса ВСЕХ машин, используемых в кластере
    pg_hba:
    - host replication postgres ::1/128 md5
    - host replication postgres 127.0.0.1/8 md5
    - host replication postgres 192.168.0.143/24 md5
    - host replication postgres 192.168.0.144/24 md5
    - host replication postgres 192.168.0.145/24 md5
    - host all all 0.0.0.0/0 md5

    users:
        admin:
            password: admin
            options:
                - createrole
                - createdb

postgresql:
    listen: 192.168.0.143:5432 # адрес той ноды, в которой находится этот файл
    connect_address: 192.168.0.143:5432 # адрес той ноды, в которой находится этот файл
    data_dir: /data/patroni # эту директорию создаст скрипт, описанный выше и установит нужные права
    bin_dir:  /usr/lib/postgresql/9.6/bin # укажите путь до вашей директории с postgresql
    pgpass: /tmp/pgpass
    authentication:
        replication:
            username: postgres
            password: postgres
        superuser:
            username: postgres
            password: postgres
    create_replica_methods:
        basebackup:
            checkpoint: 'fast'
    parameters:
        unix_socket_directories: '.'

tags:
    nofailover: false
    noloadbalance: false
    clonefrom: false
    nosync: false

Скриптът трябва да се изпълнява и на трите машини в клъстера, точно както горната конфигурация трябва да бъде поставена във файла /etc/patroni.yml на всички машини.

Когато извършите тези операции на всички клъстерни машини, изпълнете следната команда на всяка от тях

systemctl start patroni
systemctl start postgresql

Изчакайте около 30 секунди, след което изпълнете тази команда на останалите машини в клъстера.

HAпрокси

Използваме прекрасния HAproxy, за да осигурим единна входна точка. Главният сървър винаги ще бъде достъпен на адреса на машината, където е внедрен HAproxy.

За да не направим машината с HAproxy единствена точка на повреда, ще я стартираме в Docker контейнер, в бъдеще ще бъде възможно да я стартираме в клъстер на K8 и да направим нашия failover cluster още по-надежден.

Създайте директория, където можете да съхранявате два файла - Dockerfile и haproxy.cfg. Влез в него.

Докер файл

FROM ubuntu:latest

RUN apt-get update 
    && apt-get install -y haproxy rsyslog 
    && rm -rf /var/lib/apt/lists/*

RUN mkdir /run/haproxy

COPY haproxy.cfg /etc/haproxy/haproxy.cfg

CMD haproxy -f /etc/haproxy/haproxy.cfg && tail -F /var/log/haproxy.log

Внимавайте, последните три реда на файла haproxy.cfg трябва да показват адресите на вашите машини. HAproxy ще се свърже с Patroni, в HTTP заглавките главният сървър винаги ще връща 200, а репликата винаги ще връща 503.

haproxy.cfg

global
    maxconn 100

defaults
    log global
    mode tcp
    retries 2
    timeout client 30m
    timeout connect 4s
    timeout server 30m
    timeout check 5s

listen stats
    mode http
    bind *:7000
    stats enable
    stats uri /

listen postgres
    bind *:5000
    option httpchk
    http-check expect status 200
    default-server inter 3s fall 3 rise 2 on-marked-down shutdown-sessions
    server postgresql1 192.168.0.143:5432 maxconn 100 check port 8008
    server postgresql2 192.168.0.144:5432 maxconn 100 check port 8008
    server postgresql3 192.168.0.145:5432 maxconn 100 check port 8008

Намирайки се в директорията, в която „лежат“ и двата ни файла, ние последователно ще изпълним командите за опаковане на контейнера, както и ще го стартираме с пренасочени необходимите портове:

docker build -t my-haproxy .
docker run -d -p5000:5000 -p7000:7000 my-haproxy 

Сега, когато отворите адреса на вашата машина с HAproxy в браузъра и посочите порт 7000, ще видите статистиката за вашия клъстер.

Сървърът, който е главният, ще бъде в състояние UP, а репликите ще бъдат в състояние DOWN. Това е нормално, всъщност работят, но се показват в тази форма поради факта, че връщат 503 при заявки от HAproxy. Това ни позволява винаги да знаем точно кой от трите сървъра е текущият главен.

Заключение

Прекрасна си! Само за 30 минути сте внедрили страхотен клъстер от база данни за отказ и производителност с поточно репликиране и автоматичен отказ. Ако планирате да използвате това решение, вижте с официална документация на Patroni, и особено с частта му относно помощната програма patronictl, която предоставя удобен достъп до управление на вашия клъстер.

Честито!

Източник: www.habr.com

Добавяне на нов коментар