ProHoster > блог > Администрација > Изградба на високо достапен PostgreSQL кластер користејќи Patroni, etcd, HAProxy
Изградба на високо достапен PostgreSQL кластер користејќи Patroni, etcd, HAProxy
Едноставно, во моментот кога беше поставен проблемот, немав доволно искуство сам да го развијам и да го започнам ова решение. И тогаш почнав да гуглам.
Не знам што е уловот, но по којзнае кој пат се соочувам со фактот дека дури и ако правам сè чекор по чекор како во упатството, ја подготвувам истата средина како авторот, тогаш ништо не функционира. Немам поим што е работата, но кога повторно го сретнав ова, решив да напишам сопствен туторијал кога сè ќе успее. Оној што дефинитивно ќе работи.
Водичи на Интернет
Се случува интернетот да не страда од недостиг од разни водичи, туторијали, чекор-по-чекор и слично. Едноставно, ми беше задолжено да развијам решение за практично организирање и градење на кластер за попуштање PostgreSQL, чии главни барања беа репликација на стриминг од Master серверот до сите реплики и автоматско обезбедување на резерва во случај на главен сервер. неуспех.
Во оваа фаза, беше одреден купот користени технологии:
HAпрокси за организирање на единствена влезна точка за апликации кои користат база на податоци
Инсталација
За ваше внимание - градење на високо достапен PostgreSQL кластер користејќи Patroni, etcd, HAProxy.
Сите операции беа извршени на виртуелни машини со инсталиран Debian 10 OS.
итн
Не препорачувам да инсталирате etcd на истите машини каде што ќе се наоѓаат patroni и postgresql, бидејќи оптоварувањето на дискот е многу важно за etcd. Но, за едукативни цели, ќе го направиме токму тоа.
Ајде да инсталираме итн.
#!/bin/bash
apt-get update
apt-get install etcd
Додадете содржина во датотеката /etc/default/etcd
[член]
ETCD_NAME=datanode1 # име на домаќин на вашата машина
ETCD_DATA_DIR=”/var/lib/etcd/default.etcd”
СИТЕ ИП АДРЕСИ ТРЕБА ДА БИДАТ ВАЖЕНИ. ЛИСТЕР ПЕР, КЛИЕНТ итн ТРЕБА ДА БИДЕ ПОСТАВЕН НА ИП АДРЕСА НА ДОМАЌИН
Првото нешто што треба да направите е да поставите три виртуелни машини за да го инсталирате потребниот софтвер на нив. По инсталирањето на машините, ако го следите мојот туторијал, можете да ја извршите оваа едноставна скрипта која (речиси) ќе направи сè за вас. Работи како root.
Имајте предвид дека скриптата користи PostgreSQL верзија 9.6, ова се должи на внатрешните барања на нашата компанија. Решението не е тестирано на други верзии на PostgreSQL.
Следно, во датотеката /etc/patroni.yml што штотуку ја креиравте, треба да ги поставите следните содржини, секако менувајќи ги IP адресите на сите места на адресите што ги користите.
Обрнете внимание на коментарите во овој јамл. Променете ги адресите на свои на секоја машина во кластерот.
/etc/patroni.yml
scope: pgsql # должно быть одинаковым на всех нодах
namespace: /cluster/ # должно быть одинаковым на всех нодах
name: postgres1 # должно быть разным на всех нодах
restapi:
listen: 192.168.0.143:8008 # адрес той ноды, в которой находится этот файл
connect_address: 192.168.0.143:8008 # адрес той ноды, в которой находится этот файл
etcd:
hosts: 192.168.0.143:2379,192.168.0.144:2379,192.168.0.145:2379 # перечислите здесь все ваши ноды, в случае если вы устанавливаете etcd на них же
# this section (bootstrap) will be written into Etcd:/<namespace>/<scope>/config after initializing new cluster
# and all other cluster members will use it as a `global configuration`
bootstrap:
dcs:
ttl: 100
loop_wait: 10
retry_timeout: 10
maximum_lag_on_failover: 1048576
postgresql:
use_pg_rewind: true
use_slots: true
parameters:
wal_level: replica
hot_standby: "on"
wal_keep_segments: 5120
max_wal_senders: 5
max_replication_slots: 5
checkpoint_timeout: 30
initdb:
- encoding: UTF8
- data-checksums
- locale: en_US.UTF8
# init pg_hba.conf должен содержать адреса ВСЕХ машин, используемых в кластере
pg_hba:
- host replication postgres ::1/128 md5
- host replication postgres 127.0.0.1/8 md5
- host replication postgres 192.168.0.143/24 md5
- host replication postgres 192.168.0.144/24 md5
- host replication postgres 192.168.0.145/24 md5
- host all all 0.0.0.0/0 md5
users:
admin:
password: admin
options:
- createrole
- createdb
postgresql:
listen: 192.168.0.143:5432 # адрес той ноды, в которой находится этот файл
connect_address: 192.168.0.143:5432 # адрес той ноды, в которой находится этот файл
data_dir: /data/patroni # эту директорию создаст скрипт, описанный выше и установит нужные права
bin_dir: /usr/lib/postgresql/9.6/bin # укажите путь до вашей директории с postgresql
pgpass: /tmp/pgpass
authentication:
replication:
username: postgres
password: postgres
superuser:
username: postgres
password: postgres
create_replica_methods:
basebackup:
checkpoint: 'fast'
parameters:
unix_socket_directories: '.'
tags:
nofailover: false
noloadbalance: false
clonefrom: false
nosync: false
Скриптата мора да се извршува на сите три машини од кластерот, а горната конфигурација мора да биде ставена и во датотеката /etc/patroni.yml на сите машини.
Откако ќе ги завршите овие операции на сите машини во кластерот, извршете ја следнава команда на која било од нив
Почекајте околу 30 секунди, а потоа извршете ја оваа команда на преостанатите машини во кластерот.
HAпрокси
Го користиме прекрасното HA прокси за да обезбедиме единствена влезна точка. Главниот сервер секогаш ќе биде достапен на адресата на машината на која е распореден HAproxy.
За да не ја направиме машината со HAproxy единствена точка на дефект, ќе ја лансираме во контејнер на Docker; во иднина може да се лансира во кластерот на K8 и да го направиме кластерот за фајлвер уште посигурен.
Направете директориум каде што можете да складирате две датотеки - Dockerfile и haproxy.cfg. Одете на него.
dockerfile
FROM ubuntu:latest
RUN apt-get update
&& apt-get install -y haproxy rsyslog
&& rm -rf /var/lib/apt/lists/*
RUN mkdir /run/haproxy
COPY haproxy.cfg /etc/haproxy/haproxy.cfg
CMD haproxy -f /etc/haproxy/haproxy.cfg && tail -F /var/log/haproxy.log
Бидете внимателни, последните три линии од датотеката haproxy.cfg треба да ги наведат адресите на вашите машини. HAproxy ќе контактира со Patroni, во заглавијата на HTTP главниот сервер секогаш ќе враќа 200, а репликата секогаш ќе враќа 503.
хапрокси.cfg
global
maxconn 100
defaults
log global
mode tcp
retries 2
timeout client 30m
timeout connect 4s
timeout server 30m
timeout check 5s
listen stats
mode http
bind *:7000
stats enable
stats uri /
listen postgres
bind *:5000
option httpchk
http-check expect status 200
default-server inter 3s fall 3 rise 2 on-marked-down shutdown-sessions
server postgresql1 192.168.0.143:5432 maxconn 100 check port 8008
server postgresql2 192.168.0.144:5432 maxconn 100 check port 8008
server postgresql3 192.168.0.145:5432 maxconn 100 check port 8008
Бидејќи сме во директориумот во кој „лежат“ и двете наши датотеки, ајде последователно да ги извршиме командите за пакување на контејнерот, како и да го стартуваме со препраќање на потребните порти:
Сега, со отворање на адресата на вашата машина со HAproxy во прелистувачот и специфицирање на портата 7000, ќе видите статистика на вашиот кластер.
Серверот што е главен ќе биде во состојба UP, а репликите ќе бидат во состојба DOWN. Тоа е нормално, всушност тие работат, но се појавуваат вака бидејќи враќаат 503 за барања од HAproxy. Ова ни овозможува секогаш точно да знаеме кој од трите сервери е тековниот господар.
Заклучок
Вие сте прекрасни! За само 30 минути распоредивте одличен кластер за бази на податоци толерантни за грешки и со високи перформанси со репликација на стриминг и автоматско враќање назад. Ако планирате да го користите ова решение, проверете со официјална патронска документација, а особено со неговиот дел што се однесува на алатката patronictl, која обезбедува лесен пристап за управување со вашиот кластер.