Opbygning af en meget tilgængelig PostgreSQL-klynge ved hjælp af Patroni, etcd, HAProxy

Det skete bare sådan, at på det tidspunkt, hvor problemet blev stillet, havde jeg ikke erfaring nok til at udvikle og lancere denne løsning alene. Og så begyndte jeg at google.

Jeg ved ikke, hvad fangsten er, men for ottende gang står jeg over for, at selvom jeg gør alting trin for trin som i vejledningen, forbereder det samme miljø som forfatteren, så virker intet nogensinde. Jeg aner ikke, hvad der er i vejen, men da jeg stødte på dette igen, besluttede jeg, at jeg vil skrive min egen tutorial, når alt fungerer. En der helt sikkert vil virke.

Vejledninger på internettet

Det er bare sådan, at internettet ikke lider under mangel på diverse vejledninger, tutorials, trin-for-trin og lignende. Det skete, at jeg fik til opgave at udvikle en løsning til bekvemt at organisere og bygge en failover PostgreSQL-klynge, hvor hovedkravene var streaming af replikering fra masterserveren til alle replikaer og automatisk levering af en reserve i tilfælde af en masterserver fiasko.

På dette stadium blev stakken af ​​anvendte teknologier bestemt:

  • PostgreSQL som et DBMS
  • Patroni som en klyngeløsning
  • etcd som distribueret lager for Patroni
  • HAproxy til at organisere et enkelt indgangspunkt for applikationer, der bruger databasen

Installation

Til din opmærksomhed - opbygning af en meget tilgængelig PostgreSQL-klynge ved hjælp af Patroni, etcd, HAProxy.

Alle handlinger blev udført på virtuelle maskiner med Debian 10 OS installeret.

osv

Jeg anbefaler ikke at installere etcd på de samme maskiner, hvor patroni og postgresql vil være placeret, da diskbelastning er meget vigtig for etcd. Men i uddannelsesøjemed vil vi gøre netop det.
Lad os installere etcd.

#!/bin/bash
apt-get update
apt-get install etcd

Tilføj indhold til filen /etc/default/etcd

[medlem]

ETCD_NAME=datanode1 # værtsnavn på din maskine
ETCD_DATA_DIR="/var/lib/etcd/default.etcd"

ALLE IP-ADRESSER SKAL VÆRE GYLDIGE. LISTER PEER, KLIENT osv. SKAL INDSTILLES TIL IP-ADRESSE PÅ VÆRTEN

ETCD_LISTEN_PEER_URLS="http://192.168.0.143:2380» # adresse på din bil
ETCD_LISTEN_CLIENT_URLS="http://192.168.0.143:2379,http://127.0.0.1:2379» # adresse på din bil

[klynge]

ETCD_INITIAL_ADVERTISE_PEER_URLS="http://192.168.0.143:2380» # adresse på din bil
ETCD_INITIAL_CLUSTER=»datanode1=http://192.168.0.143:2380,datanode2=http://192.168.0.144:2380,datanode3=http://192.168.0.145:2380» # adresser på alle maskiner i etcd-klyngen
ETCD_INITIAL_CLUSTER_STATE="ny"
ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster-1″
ETCD_ADVERTISE_CLIENT_URLS="http://192.168.0.143:2379» # adresse på din bil

Udfør kommandoen

systemctl restart etcd

PostgreSQL 9.6 + patroni

Den første ting du skal gøre er at konfigurere tre virtuelle maskiner til at installere den nødvendige software på dem. Efter installation af maskinerne, hvis du følger min tutorial, kan du køre dette simple script, der (næsten) vil gøre alt for dig. Kører som root.

Bemærk venligst, at scriptet bruger PostgreSQL version 9.6, dette skyldes de interne krav i vores virksomhed. Løsningen er ikke testet på andre versioner af PostgreSQL.

#!/bin/bash
apt-get install gnupg -y
echo "deb http://apt.postgresql.org/pub/repos/apt/ buster-pgdg main" >> /etc/apt/sources.list
wget --quiet -O - https://www.postgresql.org/media/keys/ACCC4CF8.asc | apt-key add -
apt-get update
apt-get install postgresql-9.6 python3-pip python3-dev libpq-dev -y
systemctl stop postgresql
pip3 install --upgrade pip
pip install psycopg2
pip install patroni[etcd]
echo "
[Unit]
Description=Runners to orchestrate a high-availability PostgreSQL
After=syslog.target network.target

[Service]
Type=simple

User=postgres
Group=postgres

ExecStart=/usr/local/bin/patroni /etc/patroni.yml

KillMode=process

TimeoutSec=30

Restart=no

[Install]
WantedBy=multi-user.targ
" > /etc/systemd/system/patroni.service
mkdir -p /data/patroni
chown postgres:postgres /data/patroni
chmod 700 /data/patroniпо
touch /etc/patroni.yml

Dernæst skal du i filen /etc/patroni.yml, du lige har oprettet, placere følgende indhold, selvfølgelig ændre IP-adresserne alle steder til de adresser, du bruger.
Vær opmærksom på kommentarerne i denne yaml. Skift adresserne til dine egne på hver maskine i klyngen.

/etc/patroni.yml

scope: pgsql # должно быть одинаковым на всех нодах
namespace: /cluster/ # должно быть одинаковым на всех нодах
name: postgres1 # должно быть разным на всех нодах

restapi:
    listen: 192.168.0.143:8008 # адрес той ноды, в которой находится этот файл
    connect_address: 192.168.0.143:8008 # адрес той ноды, в которой находится этот файл

etcd:
    hosts: 192.168.0.143:2379,192.168.0.144:2379,192.168.0.145:2379 # перечислите здесь все ваши ноды, в случае если вы устанавливаете etcd на них же

# this section (bootstrap) will be written into Etcd:/<namespace>/<scope>/config after initializing new cluster
# and all other cluster members will use it as a `global configuration`
bootstrap:
    dcs:
        ttl: 100
        loop_wait: 10
        retry_timeout: 10
        maximum_lag_on_failover: 1048576
        postgresql:
            use_pg_rewind: true
            use_slots: true
            parameters:
                    wal_level: replica
                    hot_standby: "on"
                    wal_keep_segments: 5120
                    max_wal_senders: 5
                    max_replication_slots: 5
                    checkpoint_timeout: 30

    initdb:
    - encoding: UTF8
    - data-checksums
    - locale: en_US.UTF8
    # init pg_hba.conf должен содержать адреса ВСЕХ машин, используемых в кластере
    pg_hba:
    - host replication postgres ::1/128 md5
    - host replication postgres 127.0.0.1/8 md5
    - host replication postgres 192.168.0.143/24 md5
    - host replication postgres 192.168.0.144/24 md5
    - host replication postgres 192.168.0.145/24 md5
    - host all all 0.0.0.0/0 md5

    users:
        admin:
            password: admin
            options:
                - createrole
                - createdb

postgresql:
    listen: 192.168.0.143:5432 # адрес той ноды, в которой находится этот файл
    connect_address: 192.168.0.143:5432 # адрес той ноды, в которой находится этот файл
    data_dir: /data/patroni # эту директорию создаст скрипт, описанный выше и установит нужные права
    bin_dir:  /usr/lib/postgresql/9.6/bin # укажите путь до вашей директории с postgresql
    pgpass: /tmp/pgpass
    authentication:
        replication:
            username: postgres
            password: postgres
        superuser:
            username: postgres
            password: postgres
    create_replica_methods:
        basebackup:
            checkpoint: 'fast'
    parameters:
        unix_socket_directories: '.'

tags:
    nofailover: false
    noloadbalance: false
    clonefrom: false
    nosync: false

Scriptet skal køres på alle tre maskiner i klyngen, og ovenstående konfiguration skal også placeres i filen /etc/patroni.yml på alle maskiner.

Når du har fuldført disse handlinger på alle maskiner i klyngen, skal du køre følgende kommando på en af ​​dem

systemctl start patroni
systemctl start postgresql

Vent ca. 30 sekunder, og kør derefter denne kommando på de resterende maskiner i klyngen.

HAproxy

Vi bruger den vidunderlige HAproxy til at give et enkelt indgangspunkt. Masterserveren vil altid være tilgængelig på adressen på den maskine, hvorpå HAproxy er installeret.

For ikke at gøre maskinen med HAproxy til et enkelt fejlpunkt, vil vi lancere den i en Docker-container; i fremtiden kan den lanceres i K8'ens klynge og gøre vores failover-klynge endnu mere pålidelig.

Opret en mappe, hvor du kan gemme to filer - Dockerfile og haproxy.cfg. Gå til det.

Dockerfil

FROM ubuntu:latest

RUN apt-get update 
    && apt-get install -y haproxy rsyslog 
    && rm -rf /var/lib/apt/lists/*

RUN mkdir /run/haproxy

COPY haproxy.cfg /etc/haproxy/haproxy.cfg

CMD haproxy -f /etc/haproxy/haproxy.cfg && tail -F /var/log/haproxy.log

Vær forsigtig, de sidste tre linjer i filen haproxy.cfg skal vise adresserne på dine maskiner. HAproxy vil kontakte Patroni, i HTTP-headerne vil masterserveren altid returnere 200, og replikaen vil altid returnere 503.

haproxy.cfg

global
    maxconn 100

defaults
    log global
    mode tcp
    retries 2
    timeout client 30m
    timeout connect 4s
    timeout server 30m
    timeout check 5s

listen stats
    mode http
    bind *:7000
    stats enable
    stats uri /

listen postgres
    bind *:5000
    option httpchk
    http-check expect status 200
    default-server inter 3s fall 3 rise 2 on-marked-down shutdown-sessions
    server postgresql1 192.168.0.143:5432 maxconn 100 check port 8008
    server postgresql2 192.168.0.144:5432 maxconn 100 check port 8008
    server postgresql3 192.168.0.145:5432 maxconn 100 check port 8008

Når vi er i den mappe, hvori begge vores filer "ligger", lad os udføre kommandoerne for at pakke containeren i rækkefølge, samt starte den med videresendelse af de nødvendige porte:

docker build -t my-haproxy .
docker run -d -p5000:5000 -p7000:7000 my-haproxy 

Nu, ved at åbne adressen på din maskine med HAproxy i browseren og angive port 7000, vil du se statistik på din klynge.

Serveren, der er master, vil være i tilstanden OP, og replikaerne vil være i tilstanden NED. Dette er normalt, faktisk virker de, men de ser ud på denne måde, fordi de returnerer 503 for anmodninger fra HAproxy. Dette giver os mulighed for altid at vide præcis, hvilken af ​​de tre servere der er den aktuelle master.

Konklusion

Du er smuk! På kun 30 minutter har du implementeret en fremragende fejltolerant og højtydende databaseklynge med streamingreplikering og automatisk fallback. Hvis du planlægger at bruge denne løsning, så tjek ud med officiel Patroni-dokumentation, og især med dens del vedrørende patronictl-værktøjet, som giver nem adgang til at administrere din klynge.

Tillykke!

Kilde: www.habr.com

Tilføj en kommentar