Բարձր հասանելի PostgreSQL կլաստերի ստեղծում՝ օգտագործելով Patroni, etcd, HAProxy

Պարզապես պատահեց, որ այն պահին, երբ խնդիրը դրվեց, ես չունեի բավարար փորձ այս լուծումը միայնակ մշակելու և գործարկելու համար: Եվ հետո ես սկսեցի Google-ը:

Ես չգիտեմ, թե ինչ է բռնել, բայց ես արդեն որերորդ անգամ բախվում եմ այն ​​փաստի հետ, որ նույնիսկ եթե ես ամեն ինչ քայլ առ քայլ անեմ, ինչպես ձեռնարկում, պատրաստեմ նույն միջավայրը, ինչ հեղինակը, ապա ոչինչ երբեք չի ստացվում: Ես պատկերացում չունեմ, թե ինչ է խնդիրը, բայց երբ նորից հանդիպեցի դրան, որոշեցի, որ կգրեմ իմ սեփական ձեռնարկը, երբ ամեն ինչ ստացվի: Մեկը, որն անպայման կաշխատի:

Ուղեցույցներ ինտերնետում

Պատահում է, որ համացանցը չի տուժում տարատեսակ ուղեցույցների, ձեռնարկների, քայլ առ քայլ ու նման բաների պակասից։ Պարզապես պատահեց, որ ինձ հանձնարարվեց մշակել լուծում՝ հարմար կերպով կազմակերպելու և կառուցելու PostgreSQL կլաստերը, որի հիմնական պահանջներն էին Master սերվերից բոլոր կրկնօրինակների հոսքը և Master սերվերի դեպքում ռեզերվի ավտոմատ տրամադրումը: ձախողում.

Այս փուլում որոշվել է օգտագործվող տեխնոլոգիաների փաթեթը.

  • PostgreSQL որպես DBMS
  • Հովանավոր որպես կլաստերային լուծում
  • etcd որպես բաշխված պահեստ Patroni-ի համար
  • HAproxy՝ տվյալների բազան օգտագործող հավելվածների համար մեկ մուտքի կետ կազմակերպելու համար

Տեղակայում

Ձեր ուշադրության համար՝ ստեղծել բարձր հասանելի PostgreSQL կլաստեր՝ օգտագործելով Patroni, etcd, HAProxy:

Բոլոր գործողությունները կատարվել են Debian 10 OS-ով տեղադրված վիրտուալ մեքենաների վրա:

և այլն

Ես խորհուրդ չեմ տալիս տեղադրել etcd նույն մեքենաների վրա, որտեղ տեղակայված կլինեն patroni-ն և postgresql-ը, քանի որ սկավառակի բեռնվածությունը շատ կարևոր է etcd-ի համար: Բայց կրթական նպատակներով մենք հենց դա էլ կանենք։
Եկեք տեղադրենք և այլն:

#!/bin/bash
apt-get update
apt-get install etcd

Ավելացնել բովանդակություն /etc/default/etcd ֆայլին

[անդամ]

ETCD_NAME=datanode1 ձեր սարքի # հոսթի անունը
ETCD_DATA_DIR=”/var/lib/etcd/default.etcd”

ԲՈԼՈՐ IP ՀԱՍՑԵՆԵՐԸ ՊԵՏՔ Է ՈՒԺԻՂ ԵՆ: ՑՈՒՑԱԿԱՐԱՆԻ ՀԱՎԱՔԱԿԱՆԸ, ՀԱՃԱԽՈՐԴԸ և այլն ՊԵՏՔ Է ՍԱՀՄԱՆԱՑՎԵՆ ՀՈՍՏԻ IP ՀԱՍՑԵ

ETCD_LISTEN_PEER_URLS="http://192.168.0.143:2380» Ձեր մեքենայի # հասցեն
ETCD_LISTEN_CLIENT_URLS="http://192.168.0.143:2379,http://127.0.0.1:2379» Ձեր մեքենայի # հասցեն

[կլաստեր]

ETCD_INITIAL_ADVERTISE_PEER_URLS="http://192.168.0.143:2380» Ձեր մեքենայի # հասցեն
ETCD_INITIAL_CLUSTER=»datanode1=http://192.168.0.143:2380,datanode2=http://192.168.0.144:2380,datanode3=http://192.168.0.145:2380» etcd կլաստերի բոլոր մեքենաների # հասցեները
ETCD_INITIAL_CLUSTER_STATE = "նոր"
ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster-1"
ETCD_ADVERTISE_CLIENT_URLS="http://192.168.0.143:2379» Ձեր մեքենայի # հասցեն

Գործարկեք հրամանը

systemctl restart etcd

PostgreSQL 9.6 + հովանավոր

Առաջին բանը, որ դուք պետք է անեք, երեք վիրտուալ մեքենաներ ստեղծելն է՝ դրանց վրա անհրաժեշտ ծրագրակազմը տեղադրելու համար: Մեքենաները տեղադրելուց հետո, եթե հետևեք իմ ձեռնարկին, կարող եք գործարկել այս պարզ սցենարը, որը (գրեթե) ամեն ինչ կանի ձեզ համար: Գործում է որպես արմատ:

Խնդրում ենք նկատի ունենալ, որ սցենարն օգտագործում է PostgreSQL 9.6 տարբերակը, դա պայմանավորված է մեր ընկերության ներքին պահանջներով: Լուծումը չի փորձարկվել PostgreSQL-ի այլ տարբերակների վրա:

#!/bin/bash
apt-get install gnupg -y
echo "deb http://apt.postgresql.org/pub/repos/apt/ buster-pgdg main" >> /etc/apt/sources.list
wget --quiet -O - https://www.postgresql.org/media/keys/ACCC4CF8.asc | apt-key add -
apt-get update
apt-get install postgresql-9.6 python3-pip python3-dev libpq-dev -y
systemctl stop postgresql
pip3 install --upgrade pip
pip install psycopg2
pip install patroni[etcd]
echo "
[Unit]
Description=Runners to orchestrate a high-availability PostgreSQL
After=syslog.target network.target

[Service]
Type=simple

User=postgres
Group=postgres

ExecStart=/usr/local/bin/patroni /etc/patroni.yml

KillMode=process

TimeoutSec=30

Restart=no

[Install]
WantedBy=multi-user.targ
" > /etc/systemd/system/patroni.service
mkdir -p /data/patroni
chown postgres:postgres /data/patroni
chmod 700 /data/patroniпо
touch /etc/patroni.yml

Հաջորդը, ձեր նոր ստեղծած /etc/patroni.yml ֆայլում դուք պետք է տեղադրեք հետևյալ բովանդակությունը՝ իհարկե բոլոր տեղերում IP հասցեները փոխելով ձեր օգտագործած հասցեներով։
Ուշադրություն դարձրեք այս yaml-ի մեկնաբանություններին։ Կլաստերի յուրաքանչյուր մեքենայի հասցեները փոխեք ձեր սեփական հասցեներին:

/etc/patroni.yml

scope: pgsql # должно быть одинаковым на всех нодах
namespace: /cluster/ # должно быть одинаковым на всех нодах
name: postgres1 # должно быть разным на всех нодах

restapi:
    listen: 192.168.0.143:8008 # адрес той ноды, в которой находится этот файл
    connect_address: 192.168.0.143:8008 # адрес той ноды, в которой находится этот файл

etcd:
    hosts: 192.168.0.143:2379,192.168.0.144:2379,192.168.0.145:2379 # перечислите здесь все ваши ноды, в случае если вы устанавливаете etcd на них же

# this section (bootstrap) will be written into Etcd:/<namespace>/<scope>/config after initializing new cluster
# and all other cluster members will use it as a `global configuration`
bootstrap:
    dcs:
        ttl: 100
        loop_wait: 10
        retry_timeout: 10
        maximum_lag_on_failover: 1048576
        postgresql:
            use_pg_rewind: true
            use_slots: true
            parameters:
                    wal_level: replica
                    hot_standby: "on"
                    wal_keep_segments: 5120
                    max_wal_senders: 5
                    max_replication_slots: 5
                    checkpoint_timeout: 30

    initdb:
    - encoding: UTF8
    - data-checksums
    - locale: en_US.UTF8
    # init pg_hba.conf должен содержать адреса ВСЕХ машин, используемых в кластере
    pg_hba:
    - host replication postgres ::1/128 md5
    - host replication postgres 127.0.0.1/8 md5
    - host replication postgres 192.168.0.143/24 md5
    - host replication postgres 192.168.0.144/24 md5
    - host replication postgres 192.168.0.145/24 md5
    - host all all 0.0.0.0/0 md5

    users:
        admin:
            password: admin
            options:
                - createrole
                - createdb

postgresql:
    listen: 192.168.0.143:5432 # адрес той ноды, в которой находится этот файл
    connect_address: 192.168.0.143:5432 # адрес той ноды, в которой находится этот файл
    data_dir: /data/patroni # эту директорию создаст скрипт, описанный выше и установит нужные права
    bin_dir:  /usr/lib/postgresql/9.6/bin # укажите путь до вашей директории с postgresql
    pgpass: /tmp/pgpass
    authentication:
        replication:
            username: postgres
            password: postgres
        superuser:
            username: postgres
            password: postgres
    create_replica_methods:
        basebackup:
            checkpoint: 'fast'
    parameters:
        unix_socket_directories: '.'

tags:
    nofailover: false
    noloadbalance: false
    clonefrom: false
    nosync: false

Սցենարը պետք է գործարկվի կլաստերի բոլոր երեք մեքենաների վրա, և վերը նշված կոնֆիգուրացիան նույնպես պետք է տեղադրվի բոլոր մեքենաների /etc/patroni.yml ֆայլում։

Երբ ավարտեք այս գործողությունները կլաստերի բոլոր մեքենաների վրա, գործարկեք հետևյալ հրամանը դրանցից որևէ մեկի վրա

systemctl start patroni
systemctl start postgresql

Սպասեք մոտ 30 վայրկյան, ապա գործարկեք այս հրամանը կլաստերի մնացած մեքենաների վրա:

HAproxy

Մենք օգտագործում ենք հրաշալի HAproxy-ն՝ մուտքի մեկ կետ ապահովելու համար: Հիմնական սերվերը միշտ հասանելի կլինի այն մեքենայի հասցեով, որի վրա տեղակայված է HAproxy-ը:

Որպեսզի HAproxy-ով մեքենան չդարձնենք խափանման մեկ կետ, մենք այն կգործարկենք Docker կոնտեյներով, ապագայում այն ​​կարող է գործարկվել K8-ի կլաստերում և մեր ձախողման կլաստերը դարձնել էլ ավելի հուսալի:

Ստեղծեք գրացուցակ, որտեղ կարող եք պահել երկու ֆայլ՝ Dockerfile և haproxy.cfg: Գնացեք դրան:

dockerfile

FROM ubuntu:latest

RUN apt-get update 
    && apt-get install -y haproxy rsyslog 
    && rm -rf /var/lib/apt/lists/*

RUN mkdir /run/haproxy

COPY haproxy.cfg /etc/haproxy/haproxy.cfg

CMD haproxy -f /etc/haproxy/haproxy.cfg && tail -F /var/log/haproxy.log

Զգույշ եղեք, haproxy.cfg ֆայլի վերջին երեք տողերում պետք է նշվեն ձեր մեքենաների հասցեները: HAproxy-ը կկապվի Patroni-ի հետ, HTTP վերնագրերում գլխավոր սերվերը միշտ կվերադարձնի 200, իսկ կրկնօրինակը միշտ կվերադարձնի 503:

haproxy.cfg

global
    maxconn 100

defaults
    log global
    mode tcp
    retries 2
    timeout client 30m
    timeout connect 4s
    timeout server 30m
    timeout check 5s

listen stats
    mode http
    bind *:7000
    stats enable
    stats uri /

listen postgres
    bind *:5000
    option httpchk
    http-check expect status 200
    default-server inter 3s fall 3 rise 2 on-marked-down shutdown-sessions
    server postgresql1 192.168.0.143:5432 maxconn 100 check port 8008
    server postgresql2 192.168.0.144:5432 maxconn 100 check port 8008
    server postgresql3 192.168.0.145:5432 maxconn 100 check port 8008

Լինելով այն գրացուցակում, որտեղ մեր երկու ֆայլերն էլ «պառկած են», եկեք հաջորդաբար կատարենք բեռնարկղը փաթեթավորելու հրամանները, ինչպես նաև գործարկենք այն անհրաժեշտ նավահանգիստները փոխանցելու միջոցով.

docker build -t my-haproxy .
docker run -d -p5000:5000 -p7000:7000 my-haproxy 

Այժմ, բրաուզերում HAproxy-ով բացելով ձեր մեքենայի հասցեն և նշելով պորտը 7000, դուք կտեսնեք վիճակագրություն ձեր կլաստերի վրա:

Սերվերը, որը գլխավոր է, կլինի UP վիճակում, իսկ կրկնօրինակները՝ DOWN վիճակում: Սա նորմալ է, իրականում նրանք աշխատում են, բայց նրանք հայտնվում են այսպես, քանի որ նրանք վերադարձնում են 503-ը HAproxy-ի հարցումների համար: Սա թույլ է տալիս մեզ միշտ հստակ իմանալ, թե երեք սերվերներից որն է ներկայիս վարպետը:

Ամփոփում

Դու հիասքանչ ես! Ընդամենը 30 րոպեի ընթացքում դուք տեղակայեցիք սխալներին հանդուրժող և բարձր արդյունավետությամբ տվյալների բազայի կլաստեր՝ հոսքային վերարտադրմամբ և ավտոմատ հետադարձով: Եթե ​​դուք մտադիր եք օգտագործել այս լուծումը, ստուգեք պաշտոնական Պատրոնի փաստաթղթերով, և հատկապես այն մասով, որը վերաբերում է patronictl կոմունալ ծառայությանը, որն ապահովում է ձեր կլաստերը կառավարելու հարմար հասանելիություն:

Շնորհավորում եմ:

Source: www.habr.com

Добавить комментарий