ProHoster > Blog > administration > Opbygning af en meget tilgængelig PostgreSQL-klynge ved hjælp af Patroni, etcd, HAProxy
Opbygning af en meget tilgængelig PostgreSQL-klynge ved hjælp af Patroni, etcd, HAProxy
Det skete bare sådan, at på det tidspunkt, hvor problemet blev stillet, havde jeg ikke erfaring nok til at udvikle og lancere denne løsning alene. Og så begyndte jeg at google.
Jeg ved ikke, hvad fangsten er, men for ottende gang står jeg over for, at selvom jeg gør alting trin for trin som i vejledningen, forbereder det samme miljø som forfatteren, så virker intet nogensinde. Jeg aner ikke, hvad der er i vejen, men da jeg stødte på dette igen, besluttede jeg, at jeg vil skrive min egen tutorial, når alt fungerer. En der helt sikkert vil virke.
Vejledninger på internettet
Det er bare sådan, at internettet ikke lider under mangel på diverse vejledninger, tutorials, trin-for-trin og lignende. Det skete, at jeg fik til opgave at udvikle en løsning til bekvemt at organisere og bygge en failover PostgreSQL-klynge, hvor hovedkravene var streaming af replikering fra masterserveren til alle replikaer og automatisk levering af en reserve i tilfælde af en masterserver fiasko.
På dette stadium blev stakken af anvendte teknologier bestemt:
HAproxy til at organisere et enkelt indgangspunkt for applikationer, der bruger databasen
Installation
Til din opmærksomhed - opbygning af en meget tilgængelig PostgreSQL-klynge ved hjælp af Patroni, etcd, HAProxy.
Alle handlinger blev udført på virtuelle maskiner med Debian 10 OS installeret.
osv
Jeg anbefaler ikke at installere etcd på de samme maskiner, hvor patroni og postgresql vil være placeret, da diskbelastning er meget vigtig for etcd. Men i uddannelsesøjemed vil vi gøre netop det.
Lad os installere etcd.
#!/bin/bash
apt-get update
apt-get install etcd
Tilføj indhold til filen /etc/default/etcd
[medlem]
ETCD_NAME=datanode1 # værtsnavn på din maskine
ETCD_DATA_DIR="/var/lib/etcd/default.etcd"
ALLE IP-ADRESSER SKAL VÆRE GYLDIGE. LISTER PEER, KLIENT osv. SKAL INDSTILLES TIL IP-ADRESSE PÅ VÆRTEN
Den første ting du skal gøre er at konfigurere tre virtuelle maskiner til at installere den nødvendige software på dem. Efter installation af maskinerne, hvis du følger min tutorial, kan du køre dette simple script, der (næsten) vil gøre alt for dig. Kører som root.
Bemærk venligst, at scriptet bruger PostgreSQL version 9.6, dette skyldes de interne krav i vores virksomhed. Løsningen er ikke testet på andre versioner af PostgreSQL.
Dernæst skal du i filen /etc/patroni.yml, du lige har oprettet, placere følgende indhold, selvfølgelig ændre IP-adresserne alle steder til de adresser, du bruger.
Vær opmærksom på kommentarerne i denne yaml. Skift adresserne til dine egne på hver maskine i klyngen.
/etc/patroni.yml
scope: pgsql # должно быть одинаковым на всех нодах
namespace: /cluster/ # должно быть одинаковым на всех нодах
name: postgres1 # должно быть разным на всех нодах
restapi:
listen: 192.168.0.143:8008 # адрес той ноды, в которой находится этот файл
connect_address: 192.168.0.143:8008 # адрес той ноды, в которой находится этот файл
etcd:
hosts: 192.168.0.143:2379,192.168.0.144:2379,192.168.0.145:2379 # перечислите здесь все ваши ноды, в случае если вы устанавливаете etcd на них же
# this section (bootstrap) will be written into Etcd:/<namespace>/<scope>/config after initializing new cluster
# and all other cluster members will use it as a `global configuration`
bootstrap:
dcs:
ttl: 100
loop_wait: 10
retry_timeout: 10
maximum_lag_on_failover: 1048576
postgresql:
use_pg_rewind: true
use_slots: true
parameters:
wal_level: replica
hot_standby: "on"
wal_keep_segments: 5120
max_wal_senders: 5
max_replication_slots: 5
checkpoint_timeout: 30
initdb:
- encoding: UTF8
- data-checksums
- locale: en_US.UTF8
# init pg_hba.conf должен содержать адреса ВСЕХ машин, используемых в кластере
pg_hba:
- host replication postgres ::1/128 md5
- host replication postgres 127.0.0.1/8 md5
- host replication postgres 192.168.0.143/24 md5
- host replication postgres 192.168.0.144/24 md5
- host replication postgres 192.168.0.145/24 md5
- host all all 0.0.0.0/0 md5
users:
admin:
password: admin
options:
- createrole
- createdb
postgresql:
listen: 192.168.0.143:5432 # адрес той ноды, в которой находится этот файл
connect_address: 192.168.0.143:5432 # адрес той ноды, в которой находится этот файл
data_dir: /data/patroni # эту директорию создаст скрипт, описанный выше и установит нужные права
bin_dir: /usr/lib/postgresql/9.6/bin # укажите путь до вашей директории с postgresql
pgpass: /tmp/pgpass
authentication:
replication:
username: postgres
password: postgres
superuser:
username: postgres
password: postgres
create_replica_methods:
basebackup:
checkpoint: 'fast'
parameters:
unix_socket_directories: '.'
tags:
nofailover: false
noloadbalance: false
clonefrom: false
nosync: false
Scriptet skal køres på alle tre maskiner i klyngen, og ovenstående konfiguration skal også placeres i filen /etc/patroni.yml på alle maskiner.
Når du har fuldført disse handlinger på alle maskiner i klyngen, skal du køre følgende kommando på en af dem
Vent ca. 30 sekunder, og kør derefter denne kommando på de resterende maskiner i klyngen.
HAproxy
Vi bruger den vidunderlige HAproxy til at give et enkelt indgangspunkt. Masterserveren vil altid være tilgængelig på adressen på den maskine, hvorpå HAproxy er installeret.
For ikke at gøre maskinen med HAproxy til et enkelt fejlpunkt, vil vi lancere den i en Docker-container; i fremtiden kan den lanceres i K8'ens klynge og gøre vores failover-klynge endnu mere pålidelig.
Opret en mappe, hvor du kan gemme to filer - Dockerfile og haproxy.cfg. Gå til det.
Dockerfil
FROM ubuntu:latest
RUN apt-get update
&& apt-get install -y haproxy rsyslog
&& rm -rf /var/lib/apt/lists/*
RUN mkdir /run/haproxy
COPY haproxy.cfg /etc/haproxy/haproxy.cfg
CMD haproxy -f /etc/haproxy/haproxy.cfg && tail -F /var/log/haproxy.log
Vær forsigtig, de sidste tre linjer i filen haproxy.cfg skal vise adresserne på dine maskiner. HAproxy vil kontakte Patroni, i HTTP-headerne vil masterserveren altid returnere 200, og replikaen vil altid returnere 503.
haproxy.cfg
global
maxconn 100
defaults
log global
mode tcp
retries 2
timeout client 30m
timeout connect 4s
timeout server 30m
timeout check 5s
listen stats
mode http
bind *:7000
stats enable
stats uri /
listen postgres
bind *:5000
option httpchk
http-check expect status 200
default-server inter 3s fall 3 rise 2 on-marked-down shutdown-sessions
server postgresql1 192.168.0.143:5432 maxconn 100 check port 8008
server postgresql2 192.168.0.144:5432 maxconn 100 check port 8008
server postgresql3 192.168.0.145:5432 maxconn 100 check port 8008
Når vi er i den mappe, hvori begge vores filer "ligger", lad os udføre kommandoerne for at pakke containeren i rækkefølge, samt starte den med videresendelse af de nødvendige porte:
Nu, ved at åbne adressen på din maskine med HAproxy i browseren og angive port 7000, vil du se statistik på din klynge.
Serveren, der er master, vil være i tilstanden OP, og replikaerne vil være i tilstanden NED. Dette er normalt, faktisk virker de, men de ser ud på denne måde, fordi de returnerer 503 for anmodninger fra HAproxy. Dette giver os mulighed for altid at vide præcis, hvilken af de tre servere der er den aktuelle master.
Konklusion
Du er smuk! På kun 30 minutter har du implementeret en fremragende fejltolerant og højtydende databaseklynge med streamingreplikering og automatisk fallback. Hvis du planlægger at bruge denne løsning, så tjek ud med officiel Patroni-dokumentation, og især med dens del vedrørende patronictl-værktøjet, som giver nem adgang til at administrere din klynge.