ProHoster > блог > адміністраванне > Пабудова кластара PostgreSQL высокай даступнасці з выкарыстаннем Patroni, etcd, HAProxy
Пабудова кластара PostgreSQL высокай даступнасці з выкарыстаннем Patroni, etcd, HAProxy
Так ужо выйшла, што на момант пастаноўкі задачы я не валодаў дастатковай ступенню дасведчанасці, каб распрацаваць і запусціць гэтае рашэнне ў адзіночку. І тады я пачаў гугліць.
Не ведаю, у чым загваздка, але ўжо які раз я сутыкаюся з тым, што нават калі рабіць усё пакрокава як у тутарыяле, падрыхтаваць такі ж enviroment як у аўтара, то ўсё роўна ніколі нічога не працуе. Паняцця не маю, у чым тут справа, але калі я сутыкнуўся з гэтым у чарговы раз, я вырашыў - а напішу я свой тутарыял, калі ўсё атрымаецца. Той, які сапраўды будзе працаваць.
Гайды ў Інтэрнеце
Так ужо выйшла, што інтэрнэт не пакутуе ад недахопу розных гайдаў, тутарыялаў, step-by-step і да таго падобных рэчаў. Так ужо выйшла, што мне была пастаўлена задача распрацаваць рашэнне для зручнай арганізацыі і пабудовы адмоваўстойлівага кластара PostgreSQL, галоўнымі патрабаваннямі да якога з'яўляліся струменевая рэплікацыя з Master-сервера на ўсе рэплікі і аўтаматычны ўвод рэзерву пры адмове Master-сервера.
На гэтым этапе быў вызначаны стэк выкарыстоўваных тэхналогій:
HAproxy для арганізацыі адзінай кропкі ўваходу для прыкладанняў, якія выкарыстоўваюць базу
Ўстаноўка
Вашай увазе - пабудова кластара PostgreSQL высокай даступнасці з выкарыстаннем Patroni, etcd, HAProxy.
Усе аперацыі выконваліся на віртуальных машынах з усталяванай АС Debian 10.
і г.д.
Не рэкамендую усталёўваць etcd на тых жа машынах, дзе будзе знаходзіцца patroni і postgresql, бо для etcd вельмі важная нагрузка на дыскі. Але ў мэтах навучання, мы зробім менавіта так.
Усталюем etcd.
#!/bin/bash
apt-get update
apt-get install etcd
Дадайце змесціва ў файл /etc/default/etcd
[member]
ETCD_NAME=datanode1 # hostname вашай машыны
ETCD_DATA_DIR="/var/lib/etcd/default.etcd"
ALL IP ADRESSES SHOULD BE VALID. LISTER PEER, CLIENT etc SHOULD BE SET TO IP ADDRESS OF HOST
Першае, што неабходна зрабіць, гэта ўсталяваць тры віртуальныя машыны для ўсталёўкі на іх неабходнага ПЗ. Пасля ўсталёўкі машын, калі вы вынікаеце майму тутарыялу, вы можаце запусціць гэты просты скрыпт, які (амаль) усё зробіць за вас. Запускаецца з-пад root.
Звярніце ўвагу, што скрыпт выкарыстоўвае версію PostgreSQL 9.6, гэта абумоўлена унутранымі патрабаваннямі нашай кампаніі. Рашэнне не тэсціравалі на іншых версіях PostgreSQL.
Далей, у створаны толькі што файл /etc/patroni.yml вам неабходна змясціць наступнае змесціва, вядома ж змяніўшы ip-адрасы ва ўсіх месцах, на адрасы, якія карыстаецеся вы.
Звярніце ўвагу на каментары ў дадзеным yaml. Змяніце адрасы на свае, на кожнай машыне кластара.
/etc/patroni.yml
scope: pgsql # должно быть одинаковым на всех нодах
namespace: /cluster/ # должно быть одинаковым на всех нодах
name: postgres1 # должно быть разным на всех нодах
restapi:
listen: 192.168.0.143:8008 # адрес той ноды, в которой находится этот файл
connect_address: 192.168.0.143:8008 # адрес той ноды, в которой находится этот файл
etcd:
hosts: 192.168.0.143:2379,192.168.0.144:2379,192.168.0.145:2379 # перечислите здесь все ваши ноды, в случае если вы устанавливаете etcd на них же
# this section (bootstrap) will be written into Etcd:/<namespace>/<scope>/config after initializing new cluster
# and all other cluster members will use it as a `global configuration`
bootstrap:
dcs:
ttl: 100
loop_wait: 10
retry_timeout: 10
maximum_lag_on_failover: 1048576
postgresql:
use_pg_rewind: true
use_slots: true
parameters:
wal_level: replica
hot_standby: "on"
wal_keep_segments: 5120
max_wal_senders: 5
max_replication_slots: 5
checkpoint_timeout: 30
initdb:
- encoding: UTF8
- data-checksums
- locale: en_US.UTF8
# init pg_hba.conf должен содержать адреса ВСЕХ машин, используемых в кластере
pg_hba:
- host replication postgres ::1/128 md5
- host replication postgres 127.0.0.1/8 md5
- host replication postgres 192.168.0.143/24 md5
- host replication postgres 192.168.0.144/24 md5
- host replication postgres 192.168.0.145/24 md5
- host all all 0.0.0.0/0 md5
users:
admin:
password: admin
options:
- createrole
- createdb
postgresql:
listen: 192.168.0.143:5432 # адрес той ноды, в которой находится этот файл
connect_address: 192.168.0.143:5432 # адрес той ноды, в которой находится этот файл
data_dir: /data/patroni # эту директорию создаст скрипт, описанный выше и установит нужные права
bin_dir: /usr/lib/postgresql/9.6/bin # укажите путь до вашей директории с postgresql
pgpass: /tmp/pgpass
authentication:
replication:
username: postgres
password: postgres
superuser:
username: postgres
password: postgres
create_replica_methods:
basebackup:
checkpoint: 'fast'
parameters:
unix_socket_directories: '.'
tags:
nofailover: false
noloadbalance: false
clonefrom: false
nosync: false
Скрыпт неабходна запусціць на выкананне на ўсіх трох машынах кластара, сапраўды гэтак жа неабходна змясціць прыведзеную канфігурацыю ў файл /etc/patroni.yml на ўсіх машынах.
Калі вы праробіце гэтыя аперацыі на ўсіх машынах кластара, выканайце наступную каманду на любой з іх
Пачакайце каля 30 секунд, затым выканайце гэтую каманду на астатніх машынах кластара.
HAproxy
Мы выкарыстоўваем цудоўны HAproxy для прадастаўлення адзінай кропкі ўваходу. Master-сервер заўсёды будзе даступны па адрасе машыны, на якой разгорнуты HAproxy.
Для таго, каб не зрабіць машыну з HAproxy адзінай кропкай адмовы, запусцім яго ў кантэйнеры Docker, у далейшым яго можна будзе запусціць у кластар K8's і зрабіць наш адмоваўстойлівы кластар яшчэ больш надзейным.
Стварыце дырэкторыю, дзе вы зможаце захоўваць два файлы - Dockerfile і haproxy.cfg. Перайдзіце ў яе.
Докер-файл
FROM ubuntu:latest
RUN apt-get update
&& apt-get install -y haproxy rsyslog
&& rm -rf /var/lib/apt/lists/*
RUN mkdir /run/haproxy
COPY haproxy.cfg /etc/haproxy/haproxy.cfg
CMD haproxy -f /etc/haproxy/haproxy.cfg && tail -F /var/log/haproxy.log
Будзьце ўважлівыя, у трох апошніх радках файла haproxy.cfg павінны быць пералічаны адрасы вашых машын. HAproxy будзе звяртацца да Patroni, у HTTP-загалоўках master-сервер заўсёды будзе вяртаць 200, а replica – 503.
haproxy.cfg
global
maxconn 100
defaults
log global
mode tcp
retries 2
timeout client 30m
timeout connect 4s
timeout server 30m
timeout check 5s
listen stats
mode http
bind *:7000
stats enable
stats uri /
listen postgres
bind *:5000
option httpchk
http-check expect status 200
default-server inter 3s fall 3 rise 2 on-marked-down shutdown-sessions
server postgresql1 192.168.0.143:5432 maxconn 100 check port 8008
server postgresql2 192.168.0.144:5432 maxconn 100 check port 8008
server postgresql3 192.168.0.145:5432 maxconn 100 check port 8008
Знаходзячыся ў дырэкторыі, у якой "ляжаць" абодва нашых файла, выканаем паслядоўна каманды пакавання кантэйнера, а таксама яго запуск з пракідам неабходных партоў:
Цяпер, адкрыўшы ў браўзэры адрас вашай машыны з HAproxy і паказаўшы порт 7000, вы ўбачыце статыстыку па вашым кластары.
У стане UP будзе знаходзіцца той сервер, які з'яўляецца майстрам, а рэплікі ў стане DOWN. Гэта нармальна, на самой справе яны працуюць, але адлюстроўваюцца ў такім выглядзе з-за таго, што вяртаюць 503 на запыты ад HAproxy. Гэта дазваляе нам заўсёды сапраўды ведаць, які з трох сервераў з'яўляецца майстрам на дадзены момант.
Заключэнне
Вы цудоўныя! Усяго толькі за 30 хвілін вы разгарнулі выдатны адмоваўстойлівы і прадукцыйны кластар баз дадзеных з струменевай рэплікацыяй і аўтаматычным уводам рэзерву. Калі вы плануеце выкарыстоўваць гэтае рашэнне, азнаёмцеся з афіцыйнай дакументацыяй Patroni, А асабліва з яе часткай, якая тычыцца ўтыліты patronictl, якая прадстаўляе зручны доступ да кіравання вашым кластарам.