ProHoster > Blog > Verwaltung > Ein Versuch, ein Analogon von ASH für PostgreSQL zu erstellen
Ein Versuch, ein Analogon von ASH für PostgreSQL zu erstellen
Formulierung des Problems
Um PostgreSQL-Abfragen zu optimieren, ist die Fähigkeit zur Analyse des Aktivitätsverlaufs, insbesondere von Wartezeiten, Sperren und Tabellenstatistiken, unbedingt erforderlich.
pgsentinel-Erweiterung :
«Alle gesammelten Informationen werden nur im RAM gespeichert und die Menge des verbrauchten Speichers wird durch die Anzahl der zuletzt gespeicherten Datensätze reguliert.
Das Feld „QueryID“ wird hinzugefügt – dieselbe Abfrage-ID aus der Erweiterung „pg_stat_statements“ (Vorinstallation erforderlich).«
Das würde natürlich sehr helfen, aber das Schwierigste ist der erste Punkt.“Alle gesammelten Informationen werden nur im RAM gespeichert “, d.h. Es gibt Auswirkungen auf die Zielbasis. Darüber hinaus gibt es keinen Sperrverlauf und keine Tabellenstatistik. Diese. Die Lösung ist im Allgemeinen unvollständig: „Es gibt noch kein fertiges Paket zur Installation. Es wird empfohlen, die Quellen herunterzuladen und die Bibliothek selbst zusammenzustellen. Sie müssen zunächst das „devel“-Paket für Ihren Server installieren und den Pfad auf pg_config in der PATH-Variablen festlegen.".
Im Allgemeinen gibt es viel Aufhebens und bei seriösen Produktionsdatenbanken kann es sein, dass man mit dem Server nichts anfangen kann. Wir müssen uns wieder etwas Eigenes einfallen lassen.
Warnung.
Aufgrund des relativ großen Umfangs und der unvollständigen Testphase hat der Artikel hauptsächlich informativen Charakter und stellt eher eine Reihe von Thesen und Zwischenergebnissen dar.
Detaillierteres Material wird später in Teilen erstellt
Entwurfsanforderungen für die Lösung
Es ist notwendig, ein Tool zu entwickeln, mit dem Sie Folgendes speichern können:
pg_stat_activity-Anzeigeverlauf Sitzungssperrverlauf mit der pg_locks-Ansicht
Lösungsanforderung–Minimieren Sie die Auswirkungen auf die Zieldatenbank.
Grund Idee– Der Datenerfassungsagent wird nicht in der Zieldatenbank, sondern in der Überwachungsdatenbank als systemd-Dienst gestartet. Ja, ein gewisser Datenverlust ist möglich, dieser ist jedoch für die Berichterstellung nicht kritisch, hat jedoch keine Auswirkungen auf die Zieldatenbank in Bezug auf Arbeitsspeicher und Festplattenspeicher. Und im Falle der Verwendung eines Verbindungspools sind die Auswirkungen auf Benutzerprozesse minimal.
Phasen der Umsetzung
1.Servicetische
Zur Speicherung der Tabellen wird ein separates Schema verwendet, um die Analyse der verwendeten Haupttabellen nicht zu erschweren.
DROP SCHEMA IF EXISTS activity_hist ;
CREATE SCHEMA activity_hist AUTHORIZATION monitor ;
Wichtig: Das Schema wird nicht in der Zieldatenbank erstellt, sondern in der Überwachungsdatenbank.
pg_stat_activity-Anzeigeverlauf
Eine Tabelle wird zum Speichern aktueller Snapshots der pg_stat_activity-Ansicht verwendet
activity_hist.history_pg_stat_activity:
--ACTIVITY_HIST.HISTORY_PG_STAT_ACTIVITY
DROP TABLE IF EXISTS activity_hist.history_pg_stat_activity;
CREATE TABLE activity_hist.history_pg_stat_activity
(
timepoint timestamp without time zone ,
datid oid ,
datname name ,
pid integer,
usesysid oid ,
usename name ,
application_name text ,
client_addr inet ,
client_hostname text ,
client_port integer,
backend_start timestamp with time zone ,
xact_start timestamp with time zone ,
query_start timestamp with time zone ,
state_change timestamp with time zone ,
wait_event_type text ,
wait_event text ,
state text ,
backend_xid xid ,
backend_xmin xid ,
query text ,
backend_type text ,
queryid bigint
);
Um das Einfügen zu beschleunigen – keine Indizes oder Einschränkungen.
Um den Verlauf selbst zu speichern, wird eine partitionierte Tabelle verwendet:
activity_hist.archive_pg_stat_activity:
DROP TABLE IF EXISTS activity_hist.archive_pg_stat_activity;
CREATE TABLE activity_hist.archive_pg_stat_activity
(
timepoint timestamp without time zone ,
datid oid ,
datname name ,
pid integer,
usesysid oid ,
usename name ,
application_name text ,
client_addr inet ,
client_hostname text ,
client_port integer,
backend_start timestamp with time zone ,
xact_start timestamp with time zone ,
query_start timestamp with time zone ,
state_change timestamp with time zone ,
wait_event_type text ,
wait_event text ,
state text ,
backend_xid xid ,
backend_xmin xid ,
query text ,
backend_type text ,
queryid bigint
)
PARTITION BY RANGE (timepoint);
Da in diesem Fall keine Anforderungen an die Einfügegeschwindigkeit bestehen, wurden einige Indizes erstellt, um die Erstellung von Berichten zu beschleunigen.
Verlauf der Sitzungsblockierung
Eine Tabelle wird verwendet, um aktuelle Snapshots von Sitzungssperren zu speichern:
activity_hist.history_locking:
--ACTIVITY_HIST.HISTORY_LOCKING
DROP TABLE IF EXISTS activity_hist.history_locking;
CREATE TABLE activity_hist.history_locking
(
timepoint timestamp without time zone ,
locktype text ,
relation oid ,
mode text ,
tid xid ,
vtid text ,
pid integer ,
blocking_pids integer[] ,
granted boolean
);
Um das Einfügen zu beschleunigen, gibt es außerdem keine Indizes oder Einschränkungen.
Um den Verlauf selbst zu speichern, wird eine partitionierte Tabelle verwendet:
activity_hist.archive_locking:
DROP TABLE IF EXISTS activity_hist.archive_locking;
CREATE TABLE activity_hist.archive_locking
(
timepoint timestamp without time zone ,
locktype text ,
relation oid ,
mode text ,
tid xid ,
vtid text ,
pid integer ,
blocking_pids integer[] ,
granted boolean
)
PARTITION BY RANGE (timepoint);
Da in diesem Fall keine Anforderungen an die Einfügegeschwindigkeit bestehen, wurden einige Indizes erstellt, um die Erstellung von Berichten zu beschleunigen.
2.Ausfüllen des aktuellen Verlaufs
Um Ansichts-Snapshots direkt zu sammeln, wird ein Bash-Skript verwendet, das die plpgsql-Funktion ausführt.
plpgsql Die dblink-Funktion greift auf Ansichten in der Zieldatenbank zu und fügt Zeilen in Servicetabellen in der Überwachungsdatenbank ein.
get_current_activity.sql
CREATE OR REPLACE FUNCTION activity_hist.get_current_activity( current_host text , current_s_name text , current_s_pass text ) RETURNS BOOLEAN AS $$
DECLARE
database_rec record;
dblink_str text ;
BEGIN
EXECUTE 'SELECT dblink_connect(''LINK1'',''host='||current_host||' port=5432 dbname=postgres'||
' user='||current_s_name||' password='||current_s_pass|| ' '')';
--------------------------------------------------------------------
--GET pg_stat_activity stats
INSERT INTO activity_hist.history_pg_stat_activity
(
SELECT * FROM dblink('LINK1',
'SELECT
now() ,
datid ,
datname ,
pid ,
usesysid ,
usename ,
application_name ,
client_addr ,
client_hostname ,
client_port ,
backend_start ,
xact_start ,
query_start ,
state_change ,
wait_event_type ,
wait_event ,
state ,
backend_xid ,
backend_xmin ,
query ,
backend_type
FROM pg_stat_activity
')
AS t (
timepoint timestamp without time zone ,
datid oid ,
datname name ,
pid integer,
usesysid oid ,
usename name ,
application_name text ,
client_addr inet ,
client_hostname text ,
client_port integer,
backend_start timestamp with time zone ,
xact_start timestamp with time zone ,
query_start timestamp with time zone ,
state_change timestamp with time zone ,
wait_event_type text ,
wait_event text ,
state text ,
backend_xid xid ,
backend_xmin xid ,
query text ,
backend_type text
)
);
---------------------------------------
--ACTIVITY_HIST.HISTORY_LOCKING
INSERT INTO activity_hist.history_locking
(
SELECT * FROM dblink('LINK1',
'SELECT
now() ,
lock.locktype,
lock.relation,
lock.mode,
lock.transactionid as tid,
lock.virtualtransaction as vtid,
lock.pid,
pg_blocking_pids(lock.pid),
lock.granted
FROM pg_catalog.pg_locks lock LEFT JOIN pg_catalog.pg_database db ON db.oid = lock.database
WHERE NOT lock.pid = pg_backend_pid()
')
AS t (
timepoint timestamp without time zone ,
locktype text ,
relation oid ,
mode text ,
tid xid ,
vtid text ,
pid integer ,
blocking_pids integer[] ,
granted boolean
)
);
PERFORM dblink_disconnect('LINK1');
RETURN TRUE ;
END
$$ LANGUAGE plpgsql;
Um Ansichts-Snapshots zu sammeln, werden der Systemd-Dienst und zwei Skripte verwendet:
pg_current_activity.service
# /etc/systemd/system/pg_current_activity.service
[Unit]
Description=Collect history of pg_stat_activity , pg_locks
Wants=pg_current_activity.timer
[Service]
Type=forking
StartLimitIntervalSec=0
ExecStart=/home/postgres/pgutils/demon/get_current_activity.sh 10.124.70.40 postgres postgres
[Install]
WantedBy=multi-user.target
pg_current_activity.timer
# /etc/systemd/system/pg_current_activity.timer
[Unit]
Description=Run pg_current_activity.sh every 1 second
Requires=pg_current_activity.service
[Timer]
Unit=pg_current_activity.service
OnCalendar=*:*:0/1
AccuracySec=1
[Install]
WantedBy=timers.target
Starten wir den Dienst:
# systemctl daemon-reload
# systemctl startet pg_current_activity.service
Somit wird der Verlauf der Aufrufe in Form von sekundengenauen Schnappschüssen erfasst. Wenn alles so bleibt, wie es ist, werden die Tabellen natürlich sehr schnell größer und ein mehr oder weniger produktives Arbeiten wird unmöglich.
Es ist notwendig, die Datenarchivierung zu organisieren.
3. Archivierungsverlauf
Zur Archivierung werden partitionierte Tabellenarchive* verwendet.
Stündlich werden neue Partitionen erstellt, während alte Daten aus den Verlaufstabellen* entfernt werden, sodass sich die Größe der Verlaufstabellen* nicht wesentlich ändert und die Einfügegeschwindigkeit mit der Zeit nicht abnimmt.
Die Erstellung neuer Abschnitte erfolgt durch die plpgsql-Funktionactivity_hist.archive_current_activity. Der Arbeitsalgorithmus ist sehr einfach (am Beispiel des Abschnitts für die Tabelle archive_pg_stat_activity).
Erstellen Sie einen neuen Abschnitt und füllen Sie ihn aus
EXECUTE format(
'CREATE TABLE ' || partition_name ||
' PARTITION OF activity_hist.archive_pg_stat_activity FOR VALUES FROM ( %L ) TO ( %L ) ' ,
to_char(date_trunc('year', partition_min_range ),'YYYY')||'-'||
to_char(date_trunc('month', partition_min_range ),'MM')||'-'||
to_char(date_trunc('day', partition_min_range ),'DD')||' '||
to_char(date_trunc('hour', partition_min_range ),'HH24')||':00',
to_char(date_trunc('year', partition_max_range ),'YYYY')||'-'||
to_char(date_trunc('month', partition_max_range ),'MM')||'-'||
to_char(date_trunc('day', partition_max_range ),'DD')||' '||
to_char(date_trunc('hour', partition_max_range ),'HH24')||':00'
);
INSERT INTO activity_hist.archive_pg_stat_activity
(
SELECT *
FROM activity_hist.history_pg_stat_activity
WHERE timepoint BETWEEN partition_min_range AND partition_max_range
);
Indizes erstellen
EXECUTE format (
'CREATE INDEX '||index_name||
' ON '||partition_name||' ( wait_event_type , backend_type , timepoint )'
);
EXECUTE format ('CREATE INDEX '||index_name||
' ON '||partition_name||' ( wait_event_type , backend_type , timepoint , queryid )'
);
Entfernen alter Daten aus der Tabelle „history_pg_stat_activity“.
DELETE
FROM activity_hist.history_pg_stat_activity
WHERE timepoint < partition_max_range;
Natürlich werden von Zeit zu Zeit alte Abschnitte als unnötig gelöscht.
Grundlegende Berichte
Warum wird das alles eigentlich getan? Um Berichte zu erhalten, die sehr vage an Oracles AWR erinnern.
Es ist wichtig hinzuzufügen, dass Sie zum Empfangen von Berichten eine Verbindung zwischen den Ansichten pg_stat_activity und pg_stat_statements herstellen müssen. Die Tabellen werden durch Hinzufügen einer Spalte „queryid“ zu den Tabellen „history_pg_stat_activity“ und „archive_pg_stat_activity“ verknüpft. Die Methode zum Hinzufügen eines Spaltenwerts geht über den Rahmen dieses Artikels hinaus und wird hier beschrieben pg_stat_statements + pg_stat_activity + loq_query = pg_ash? .
GESAMT-CPU-ZEIT FÜR ABFRAGEN
Anfrage :
WITH hist AS
(
SELECT
aa.query ,aa.queryid ,
count(*) * interval '1 second' AS duration
FROM activity_hist.archive_pg_stat_activity aa
WHERE timepoint BETWEEN pg_stat_history_begin+(current_hour_diff * interval '1 hour') AND pg_stat_history_end+(current_hour_diff * interval '1 hour') AND backend_type = 'client backend' AND datname != 'postgres' AND ( aa.wait_event_type IS NULL ) ANDaa.state = 'active'
GROUP BY aa.wait_event_type , aa.wait_event , aa.query ,aa.queryid
UNION
SELECT
ha.query ,ha.queryid,
count(*) * interval '1 second' AS duration
FROM activity_hist.history_pg_stat_activity_for_reports ha
WHERE timepoint BETWEEN pg_stat_history_begin+(current_hour_diff * interval '1 hour') AND pg_stat_history_end+(current_hour_diff * interval '1 hour') AND backend_type = 'client backend' AND datname != 'postgres' AND ( ha.wait_event_type IS NULL )AND ha.state = 'active'
GROUP BY ha.wait_event_type , ha.wait_event , ha.query ,ha.queryid
)
SELECT query , queryid , SUM( duration ) as duration
FROM hist
GROUP BY query , queryid
ORDER BY 3 DESC
WITH hist AS
(
SELECT
aa.query ,aa.queryid ,
count(*) * interval '1 second' AS duration
FROM activity_hist.archive_pg_stat_activity aa
WHERE timepoint BETWEEN pg_stat_history_begin+(current_hour_diff * interval '1 hour') AND pg_stat_history_end+(current_hour_diff * interval '1 hour') AND
backend_type = 'client backend' AND datname != 'postgres' AND
( aa.wait_event_type IS NOT NULL )
GROUP BY aa.wait_event_type , aa.wait_event , aa.query ,aa.queryid
UNION
SELECT
ha.query ,ha.queryid,
count(*) * interval '1 second' AS duration
FROM activity_hist.history_pg_stat_activity_for_reports ha
WHERE timepoint BETWEEN pg_stat_history_begin+(current_hour_diff * interval '1 hour') AND pg_stat_history_end+(current_hour_diff * interval '1 hour') AND
backend_type = 'client backend' AND datname != 'postgres' AND
( ha.wait_event_type IS NOT NULL )
GROUP BY ha.wait_event_type , ha.wait_event , ha.query ,ha.queryid
)
SELECT query , queryid , SUM( duration ) as duration
FROM hist
GROUP BY query , queryid
ORDER BY 3 DESC
WITH hist AS
(
SELECT
aa.wait_event_type , aa.wait_event
FROM activity_hist.archive_pg_stat_activity aa
WHERE timepoint BETWEEN pg_stat_history_begin+(current_hour_diff * interval '1 hour') AND pg_stat_history_end+(current_hour_diff * interval '1 hour') AND
backend_type = 'client backend' AND datname != 'postgres' AND
aa.wait_event IS NOT NULL
GROUP BY aa.wait_event_type , aa.wait_event
UNION
SELECT
ha.wait_event_type , ha.wait_event
FROM activity_hist.history_pg_stat_activity_for_reports ha
WHERE timepoint BETWEEN pg_stat_history_begin+(current_hour_diff * interval '1 hour') AND pg_stat_history_end+(current_hour_diff * interval '1 hour') AND
backend_type = 'client backend' AND datname != 'postgres' AND
ha.wait_event IS NOT NULL
GROUP BY ha.wait_event_type , ha.wait_event
)
SELECT wait_event_type , wait_event
FROM hist
GROUP BY wait_event_type , wait_event
ORDER BY 1 ASC,2 ASC
----------------------------------------------------------------------
WITH hist AS
(
SELECT
aa.wait_event_type , aa.wait_event , aa.query ,aa.queryid ,
count(*) * interval '1 second' AS duration
FROM activity_hist.archive_pg_stat_activity aa
WHERE timepoint BETWEEN pg_stat_history_begin+(current_hour_diff * interval '1 hour') AND pg_stat_history_end+(current_hour_diff * interval '1 hour') AND
backend_type = 'client backend' AND datname != 'postgres' AND
( aa.wait_event_type = waitings_stat_rec.wait_event_type AND aa.wait_event = waitings_stat_rec.wait_event )
GROUP BY aa.wait_event_type , aa.wait_event , aa.query ,aa.queryid
UNION
SELECT
ha.wait_event_type , ha.wait_event , ha.query ,ha.queryid,
count(*) * interval '1 second' AS duration
FROM activity_hist.history_pg_stat_activity_for_reports ha
WHERE timepoint BETWEEN pg_stat_history_begin+(current_hour_diff * interval '1 hour') AND pg_stat_history_end+(current_hour_diff * interval '1 hour') AND
backend_type = 'client backend' AND datname != 'postgres' AND
( ha.wait_event_type = waitings_stat_rec.wait_event_type AND ha.wait_event = waitings_stat_rec.wait_event )
GROUP BY ha.wait_event_type , ha.wait_event , ha.query ,ha.queryid
)
SELECT query , queryid , SUM( duration ) as duration
FROM hist
GROUP BY query , queryid
ORDER BY 3 DESC
SELECT
MIN(date_trunc('second',timepoint)) AS started ,
count(*) * interval '1 second' as duration ,
pid , blocking_pids , relation , mode , locktype
FROM
activity_hist.archive_locking al
WHERE
timepoint BETWEEN pg_stat_history_begin+(current_hour_diff * interval '1 hour') AND pg_stat_history_end+(current_hour_diff * interval '1 hour') AND
NOT granted AND
locktype = 'relation'
GROUP BY pid , blocking_pids , relation , mode , locktype
UNION
SELECT
MIN(date_trunc('second',timepoint)) AS started ,
count(*) * interval '1 second' as duration ,
pid , blocking_pids , relation , mode , locktype
FROM
activity_hist.history_locking
WHERE
timepoint BETWEEN pg_stat_history_begin+(current_hour_diff * interval '1 hour') AND pg_stat_history_end+(current_hour_diff * interval '1 hour') AND
NOT granted AND
locktype = 'relation'
GROUP BY pid , blocking_pids , relation , mode , locktype
ORDER BY 1
SELECT
blocking_pids
FROM
activity_hist.archive_locking al
WHERE
timepoint BETWEEN pg_stat_history_begin+(current_hour_diff * interval '1 hour') AND pg_stat_history_end+(current_hour_diff * interval '1 hour') AND
NOT granted AND
locktype = 'relation'
GROUP BY blocking_pids
UNION
SELECT
blocking_pids
FROM
activity_hist.history_locking
WHERE
timepoint BETWEEN pg_stat_history_begin+(current_hour_diff * interval '1 hour') AND pg_stat_history_end+(current_hour_diff * interval '1 hour') AND
NOT granted AND
locktype = 'relation'
GROUP BY blocking_pids
ORDER BY 1
---------------------------------------------------------------
SELECT
pid , usename , application_name , datname ,
MIN(date_trunc('second',timepoint)) as started ,
count(*) * interval '1 second' as duration ,
state ,
query
FROM activity_hist.archive_pg_stat_activity
WHERE pid= current_pid AND
timepoint BETWEEN pg_stat_history_begin+(current_hour_diff * interval '1 hour') AND pg_stat_history_end+(current_hour_diff * interval '1 hour')
GROUP BY pid , usename , application_name ,
datname ,
state_change,
state ,
query
UNION
SELECT
pid , usename , application_name , datname ,
MIN(date_trunc('second',timepoint)) as started ,
count(*) * interval '1 second' as duration ,
state ,
query
FROM activity_hist.history_pg_stat_activity_for_reports
WHERE pid= current_pid AND
timepoint BETWEEN pg_stat_history_begin+(current_hour_diff * interval '1 hour') AND pg_stat_history_end+(current_hour_diff * interval '1 hour')
GROUP BY pid , usename , application_name ,
datname ,
state_change,
state ,
query
ORDER BY 5 , 1
Die dargestellten Basisabfragen und die daraus resultierenden Berichte erleichtern bereits die Analyse von Leistungsvorfällen erheblich.
Basierend auf einfachen Abfragen können Sie einen Bericht erhalten, der entfernt dem AWR von Oracle ähnelt. Beispiel für einen zusammenfassenden Bericht
+------------------------------------------------- ----------------------------------- | KONSOLIDIERTER BERICHT ÜBER AKTIVITÄT UND WARTEN.
Fortsetzung folgt. Als nächstes folgt die Erstellung eines Sperrverlaufs (pg_stat_locks), einer detaillierteren Beschreibung des Prozesses des Füllens von Tabellen.