Пабудова кластара PostgreSQL высокай даступнасці з выкарыстаннем Patroni, etcd, HAProxy

Так ужо выйшла, што на момант пастаноўкі задачы я не валодаў дастатковай ступенню дасведчанасці, каб распрацаваць і запусціць гэтае рашэнне ў адзіночку. І тады я пачаў гугліць.

Не ведаю, у чым загваздка, але ўжо які раз я сутыкаюся з тым, што нават калі рабіць усё пакрокава як у тутарыяле, падрыхтаваць такі ж enviroment як у аўтара, то ўсё роўна ніколі нічога не працуе. Паняцця не маю, у чым тут справа, але калі я сутыкнуўся з гэтым у чарговы раз, я вырашыў - а напішу я свой тутарыял, калі ўсё атрымаецца. Той, які сапраўды будзе працаваць.

Гайды ў Інтэрнеце

Так ужо выйшла, што інтэрнэт не пакутуе ад недахопу розных гайдаў, тутарыялаў, step-by-step і да таго падобных рэчаў. Так ужо выйшла, што мне была пастаўлена задача распрацаваць рашэнне для зручнай арганізацыі і пабудовы адмоваўстойлівага кластара PostgreSQL, галоўнымі патрабаваннямі да якога з'яўляліся струменевая рэплікацыя з Master-сервера на ўсе рэплікі і аўтаматычны ўвод рэзерву пры адмове Master-сервера.

На гэтым этапе быў вызначаны стэк выкарыстоўваных тэхналогій:

  • PostgreSQL у якасці СКБД
  • Patroni у якасці рашэння для кластарызацыі
  • etcd у якасці размеркаванага сховішчы для Patroni
  • HAproxy для арганізацыі адзінай кропкі ўваходу для прыкладанняў, якія выкарыстоўваюць базу

Ўстаноўка

Вашай увазе - пабудова кластара PostgreSQL высокай даступнасці з выкарыстаннем Patroni, etcd, HAProxy.

Усе аперацыі выконваліся на віртуальных машынах з усталяванай АС Debian 10.

і г.д.

Не рэкамендую усталёўваць etcd на тых жа машынах, дзе будзе знаходзіцца patroni і postgresql, бо для etcd вельмі важная нагрузка на дыскі. Але ў мэтах навучання, мы зробім менавіта так.
Усталюем etcd.

#!/bin/bash
apt-get update
apt-get install etcd

Дадайце змесціва ў файл /etc/default/etcd

[member]

ETCD_NAME=datanode1 # hostname вашай машыны
ETCD_DATA_DIR="/var/lib/etcd/default.etcd"

ALL IP ADRESSES SHOULD BE VALID. LISTER PEER, CLIENT etc SHOULD BE SET TO IP ADDRESS OF HOST

ETCD_LISTEN_PEER_URLS=»http://192.168.0.143:2380» # адрас вашай машыны
ETCD_LISTEN_CLIENT_URLS=»http://192.168.0.143:2379,http://127.0.0.1:2379» # адрас вашай машыны

[cluster]

ETCD_INITIAL_ADVERTISE_PEER_URLS=»http://192.168.0.143:2380» # адрас вашай машыны
ETCD_INITIAL_CLUSTER=»datanode1=http://192.168.0.143:2380,datanode2=http://192.168.0.144:2380,datanode3=http://192.168.0.145:2380» # адрасы ўсіх машын у кластары etcd
ETCD_INITIAL_CLUSTER_STATE="new"
ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster-1"
ETCD_ADVERTISE_CLIENT_URLS=»http://192.168.0.143:2379» # адрас вашай машыны

Выканайце каманду

systemctl restart etcd

PostgreSQL 9.6 + patroni

Першае, што неабходна зрабіць, гэта ўсталяваць тры віртуальныя машыны для ўсталёўкі на іх неабходнага ПЗ. Пасля ўсталёўкі машын, калі вы вынікаеце майму тутарыялу, вы можаце запусціць гэты просты скрыпт, які (амаль) усё зробіць за вас. Запускаецца з-пад root.

Звярніце ўвагу, што скрыпт выкарыстоўвае версію PostgreSQL 9.6, гэта абумоўлена унутранымі патрабаваннямі нашай кампаніі. Рашэнне не тэсціравалі на іншых версіях PostgreSQL.

#!/bin/bash
apt-get install gnupg -y
echo "deb http://apt.postgresql.org/pub/repos/apt/ buster-pgdg main" >> /etc/apt/sources.list
wget --quiet -O - https://www.postgresql.org/media/keys/ACCC4CF8.asc | apt-key add -
apt-get update
apt-get install postgresql-9.6 python3-pip python3-dev libpq-dev -y
systemctl stop postgresql
pip3 install --upgrade pip
pip install psycopg2
pip install patroni[etcd]
echo "
[Unit]
Description=Runners to orchestrate a high-availability PostgreSQL
After=syslog.target network.target

[Service]
Type=simple

User=postgres
Group=postgres

ExecStart=/usr/local/bin/patroni /etc/patroni.yml

KillMode=process

TimeoutSec=30

Restart=no

[Install]
WantedBy=multi-user.targ
" > /etc/systemd/system/patroni.service
mkdir -p /data/patroni
chown postgres:postgres /data/patroni
chmod 700 /data/patroniпо
touch /etc/patroni.yml

Далей, у створаны толькі што файл /etc/patroni.yml вам неабходна змясціць наступнае змесціва, вядома ж змяніўшы ip-адрасы ва ўсіх месцах, на адрасы, якія карыстаецеся вы.
Звярніце ўвагу на каментары ў дадзеным yaml. Змяніце адрасы на свае, на кожнай машыне кластара.

/etc/patroni.yml

scope: pgsql # должно быть одинаковым на всех нодах
namespace: /cluster/ # должно быть одинаковым на всех нодах
name: postgres1 # должно быть разным на всех нодах

restapi:
    listen: 192.168.0.143:8008 # адрес той ноды, в которой находится этот файл
    connect_address: 192.168.0.143:8008 # адрес той ноды, в которой находится этот файл

etcd:
    hosts: 192.168.0.143:2379,192.168.0.144:2379,192.168.0.145:2379 # перечислите здесь все ваши ноды, в случае если вы устанавливаете etcd на них же

# this section (bootstrap) will be written into Etcd:/<namespace>/<scope>/config after initializing new cluster
# and all other cluster members will use it as a `global configuration`
bootstrap:
    dcs:
        ttl: 100
        loop_wait: 10
        retry_timeout: 10
        maximum_lag_on_failover: 1048576
        postgresql:
            use_pg_rewind: true
            use_slots: true
            parameters:
                    wal_level: replica
                    hot_standby: "on"
                    wal_keep_segments: 5120
                    max_wal_senders: 5
                    max_replication_slots: 5
                    checkpoint_timeout: 30

    initdb:
    - encoding: UTF8
    - data-checksums
    - locale: en_US.UTF8
    # init pg_hba.conf должен содержать адреса ВСЕХ машин, используемых в кластере
    pg_hba:
    - host replication postgres ::1/128 md5
    - host replication postgres 127.0.0.1/8 md5
    - host replication postgres 192.168.0.143/24 md5
    - host replication postgres 192.168.0.144/24 md5
    - host replication postgres 192.168.0.145/24 md5
    - host all all 0.0.0.0/0 md5

    users:
        admin:
            password: admin
            options:
                - createrole
                - createdb

postgresql:
    listen: 192.168.0.143:5432 # адрес той ноды, в которой находится этот файл
    connect_address: 192.168.0.143:5432 # адрес той ноды, в которой находится этот файл
    data_dir: /data/patroni # эту директорию создаст скрипт, описанный выше и установит нужные права
    bin_dir:  /usr/lib/postgresql/9.6/bin # укажите путь до вашей директории с postgresql
    pgpass: /tmp/pgpass
    authentication:
        replication:
            username: postgres
            password: postgres
        superuser:
            username: postgres
            password: postgres
    create_replica_methods:
        basebackup:
            checkpoint: 'fast'
    parameters:
        unix_socket_directories: '.'

tags:
    nofailover: false
    noloadbalance: false
    clonefrom: false
    nosync: false

Скрыпт неабходна запусціць на выкананне на ўсіх трох машынах кластара, сапраўды гэтак жа неабходна змясціць прыведзеную канфігурацыю ў файл /etc/patroni.yml на ўсіх машынах.

Калі вы праробіце гэтыя аперацыі на ўсіх машынах кластара, выканайце наступную каманду на любой з іх

systemctl start patroni
systemctl start postgresql

Пачакайце каля 30 секунд, затым выканайце гэтую каманду на астатніх машынах кластара.

HAproxy

Мы выкарыстоўваем цудоўны HAproxy для прадастаўлення адзінай кропкі ўваходу. Master-сервер заўсёды будзе даступны па адрасе машыны, на якой разгорнуты HAproxy.

Для таго, каб не зрабіць машыну з HAproxy адзінай кропкай адмовы, запусцім яго ў кантэйнеры Docker, у далейшым яго можна будзе запусціць у кластар K8's і зрабіць наш адмоваўстойлівы кластар яшчэ больш надзейным.

Стварыце дырэкторыю, дзе вы зможаце захоўваць два файлы - Dockerfile і haproxy.cfg. Перайдзіце ў яе.

Докер-файл

FROM ubuntu:latest

RUN apt-get update 
    && apt-get install -y haproxy rsyslog 
    && rm -rf /var/lib/apt/lists/*

RUN mkdir /run/haproxy

COPY haproxy.cfg /etc/haproxy/haproxy.cfg

CMD haproxy -f /etc/haproxy/haproxy.cfg && tail -F /var/log/haproxy.log

Будзьце ўважлівыя, у трох апошніх радках файла haproxy.cfg павінны быць пералічаны адрасы вашых машын. HAproxy будзе звяртацца да Patroni, у HTTP-загалоўках master-сервер заўсёды будзе вяртаць 200, а replica – 503.

haproxy.cfg

global
    maxconn 100

defaults
    log global
    mode tcp
    retries 2
    timeout client 30m
    timeout connect 4s
    timeout server 30m
    timeout check 5s

listen stats
    mode http
    bind *:7000
    stats enable
    stats uri /

listen postgres
    bind *:5000
    option httpchk
    http-check expect status 200
    default-server inter 3s fall 3 rise 2 on-marked-down shutdown-sessions
    server postgresql1 192.168.0.143:5432 maxconn 100 check port 8008
    server postgresql2 192.168.0.144:5432 maxconn 100 check port 8008
    server postgresql3 192.168.0.145:5432 maxconn 100 check port 8008

Знаходзячыся ў дырэкторыі, у якой "ляжаць" абодва нашых файла, выканаем паслядоўна каманды пакавання кантэйнера, а таксама яго запуск з пракідам неабходных партоў:

docker build -t my-haproxy .
docker run -d -p5000:5000 -p7000:7000 my-haproxy 

Цяпер, адкрыўшы ў браўзэры адрас вашай машыны з HAproxy і паказаўшы порт 7000, вы ўбачыце статыстыку па вашым кластары.

У стане UP будзе знаходзіцца той сервер, які з'яўляецца майстрам, а рэплікі ў стане DOWN. Гэта нармальна, на самой справе яны працуюць, але адлюстроўваюцца ў такім выглядзе з-за таго, што вяртаюць 503 на запыты ад HAproxy. Гэта дазваляе нам заўсёды сапраўды ведаць, які з трох сервераў з'яўляецца майстрам на дадзены момант.

Заключэнне

Вы цудоўныя! Усяго толькі за 30 хвілін вы разгарнулі выдатны адмоваўстойлівы і прадукцыйны кластар баз дадзеных з струменевай рэплікацыяй і аўтаматычным уводам рэзерву. Калі вы плануеце выкарыстоўваць гэтае рашэнне, азнаёмцеся з афіцыйнай дакументацыяй Patroni, А асабліва з яе часткай, якая тычыцца ўтыліты patronictl, якая прадстаўляе зручны доступ да кіравання вашым кластарам.

Віншую!

Крыніца: habr.com

Дадаць каментар