Periodic, apare sarcina de a căuta date înrudite folosind un set de chei. până când obținem numărul total necesar de înregistrări.
Cel mai „exemplu din viața reală” este afișarea Cele mai vechi 20 de probleme, enumerate pe lista salariatilor (de exemplu, în cadrul unei diviziuni). Pentru diverse „tablouri de bord” de management cu rezumate scurte ale zonelor de lucru, un subiect similar este necesar destul de des.
În acest articol ne vom uita la implementarea în PostgreSQL a unei soluții „naive” la o astfel de problemă, un algoritm „mai inteligent” și foarte complex. „buclă” în SQL cu o condiție de ieșire din datele găsite, care poate fi util atât pentru dezvoltarea generală, cât și pentru utilizare în alte cazuri similare.
Să luăm un set de date de testare din
CREATE INDEX ON task(owner_id, task_date, id);
-- а старый - удалим
DROP INDEX task_owner_id_task_date_idx;
Așa cum se aude, așa este scris
Mai întâi, să schițăm cea mai simplă versiune a cererii, transmițând ID-urile interpreților
SELECT
*
FROM
task
WHERE
owner_id = ANY('{1,2,4,8,16,32,64,128,256,512}'::integer[])
ORDER BY
task_date, id
LIMIT 20;
Puțin trist - am comandat doar 20 de înregistrări, dar Index Scan ne-a returnat-o 960 rânduri, care apoi trebuia și sortat... Să încercăm să citim mai puțin.
unnest + ARRAY
Prima considerație care ne va ajuta este dacă avem nevoie doar 20 sortate înregistrări, apoi doar citiți nu mai mult de 20 sortate în aceeași ordine pentru fiecare cheie. Bun, indice adecvat (owner_id, task_date, id) avem.
Să folosim același mecanism pentru extragerea și „împrăștierea în coloane” înregistrarea tabelului integral, ca în ARRAY()
:
WITH T AS (
SELECT
unnest(ARRAY(
SELECT
t
FROM
task t
WHERE
owner_id = unnest
ORDER BY
task_date, id
LIMIT 20 -- ограничиваем тут...
)) r
FROM
unnest('{1,2,4,8,16,32,64,128,256,512}'::integer[])
)
SELECT
(r).*
FROM
T
ORDER BY
(r).task_date, (r).id
LIMIT 20; -- ... и тут - тоже
Oh, deja mult mai bine! Cu 40% mai rapid și de 4.5 ori mai puține date A trebuit să o citesc.
Materializarea înregistrărilor de tabel prin CTEPermiteți-mi să vă atrag atenția asupra faptului că in unele cazuri O încercare de a lucra imediat cu câmpurile unei înregistrări după căutarea acesteia într-o subinterogare, fără a o „împacheta” într-un CTE, poate duce la „înmulțiți” InitPlan proporțional cu numărul acestor câmpuri:
SELECT
((
SELECT
t
FROM
task t
WHERE
owner_id = 1
ORDER BY
task_date, id
LIMIT 1
).*);
Result (cost=4.77..4.78 rows=1 width=16) (actual time=0.063..0.063 rows=1 loops=1)
Buffers: shared hit=16
InitPlan 1 (returns $0)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.031..0.032 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t (cost=0.42..387.57 rows=500 width=48) (actual time=0.030..0.030 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4
InitPlan 2 (returns $1)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.008..0.009 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t_1 (cost=0.42..387.57 rows=500 width=48) (actual time=0.008..0.008 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4
InitPlan 3 (returns $2)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.008..0.008 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t_2 (cost=0.42..387.57 rows=500 width=48) (actual time=0.008..0.008 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4"
InitPlan 4 (returns $3)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.009..0.009 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t_3 (cost=0.42..387.57 rows=500 width=48) (actual time=0.009..0.009 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4
Aceeași înregistrare a fost „cautată” de 4 ori... Până la PostgreSQL 11, acest comportament apare în mod regulat, iar soluția este „încheierea” acestuia într-un CTE, ceea ce este o limită absolută pentru optimizator în aceste versiuni.
Acumulator recursiv
În versiunea anterioară, în total citim 200 rânduri de dragul celor 20 necesari. Nu 960, dar cu atât mai puțin - este posibil?
Să încercăm să folosim cunoștințele de care avem nevoie total 20 înregistrări. Adică vom repeta citirea datelor doar până când ajungem la cantitatea de care avem nevoie.
Pasul 1: Lista de pornire
Evident, lista noastră „țintă” de 20 de înregistrări ar trebui să înceapă cu „primele” înregistrări pentru una dintre cheile noastre owner_id. Prin urmare, mai întâi vom găsi așa ceva „foarte primul” pentru fiecare dintre chei și adăugați-l în listă, sortând-o în ordinea dorită - (task_date, id).
Pasul 2: Găsiți intrările „următoare”.
Acum, dacă luăm prima intrare din lista noastră și începem „pas” mai departe de-a lungul indexului păstrând cheia owner_id, atunci toate înregistrările găsite sunt exact următoarele din selecția rezultată. Desigur, numai până trecem cheia fundului a doua intrare în listă.
Dacă se dovedește că am „încrucișat” al doilea record, atunci ultima intrare citită ar trebui adăugată la listă în loc de prima (cu același proprietar_id), după care resortăm din nou lista.
Adică, obținem întotdeauna că lista nu are mai mult de o intrare pentru fiecare dintre chei (dacă intrările se epuizează și nu „încrucișăm”, atunci prima intrare din listă va dispărea pur și simplu și nu se va adăuga nimic ), si ei mereu sortate în ordinea crescătoare a cheii aplicației (task_date, id).
Pasul 3: filtrați și „extindeți” înregistrările
În unele dintre rândurile selecției noastre recursive, unele înregistrări rv
sunt duplicate - mai întâi găsim cum ar fi „trecerea graniței celei de-a doua intrări a listei”, apoi o înlocuim ca fiind prima din listă. Deci prima apariție trebuie filtrată.
Temuta interogare finală
WITH RECURSIVE T AS (
-- #1 : заносим в список "первые" записи по каждому из ключей набора
WITH wrap AS ( -- "материализуем" record'ы, чтобы обращение к полям не вызывало умножения InitPlan/SubPlan
WITH T AS (
SELECT
(
SELECT
r
FROM
task r
WHERE
owner_id = unnest
ORDER BY
task_date, id
LIMIT 1
) r
FROM
unnest('{1,2,4,8,16,32,64,128,256,512}'::integer[])
)
SELECT
array_agg(r ORDER BY (r).task_date, (r).id) list -- сортируем список в нужном порядке
FROM
T
)
SELECT
list
, list[1] rv
, FALSE not_cross
, 0 size
FROM
wrap
UNION ALL
-- #2 : вычитываем записи 1-го по порядку ключа, пока не перешагнем через запись 2-го
SELECT
CASE
-- если ничего не найдено для ключа 1-й записи
WHEN X._r IS NOT DISTINCT FROM NULL THEN
T.list[2:] -- убираем ее из списка
-- если мы НЕ пересекли прикладной ключ 2-й записи
WHEN X.not_cross THEN
T.list -- просто протягиваем тот же список без модификаций
-- если в списке уже нет 2-й записи
WHEN T.list[2] IS NULL THEN
-- просто возвращаем пустой список
'{}'
-- пересортировываем словарь, убирая 1-ю запись и добавляя последнюю из найденных
ELSE (
SELECT
coalesce(T.list[2] || array_agg(r ORDER BY (r).task_date, (r).id), '{}')
FROM
unnest(T.list[3:] || X._r) r
)
END
, X._r
, X.not_cross
, T.size + X.not_cross::integer
FROM
T
, LATERAL(
WITH wrap AS ( -- "материализуем" record
SELECT
CASE
-- если все-таки "перешагнули" через 2-ю запись
WHEN NOT T.not_cross
-- то нужная запись - первая из спписка
THEN T.list[1]
ELSE ( -- если не пересекли, то ключ остался как в предыдущей записи - отталкиваемся от нее
SELECT
_r
FROM
task _r
WHERE
owner_id = (rv).owner_id AND
(task_date, id) > ((rv).task_date, (rv).id)
ORDER BY
task_date, id
LIMIT 1
)
END _r
)
SELECT
_r
, CASE
-- если 2-й записи уже нет в списке, но мы хоть что-то нашли
WHEN list[2] IS NULL AND _r IS DISTINCT FROM NULL THEN
TRUE
ELSE -- ничего не нашли или "перешагнули"
coalesce(((_r).task_date, (_r).id) < ((list[2]).task_date, (list[2]).id), FALSE)
END not_cross
FROM
wrap
) X
WHERE
T.size < 20 AND -- ограничиваем тут количество
T.list IS DISTINCT FROM '{}' -- или пока список не кончился
)
-- #3 : "разворачиваем" записи - порядок гарантирован по построению
SELECT
(rv).*
FROM
T
WHERE
not_cross; -- берем только "непересекающие" записи
Astfel, noi a tranzacționat 50% din citirile de date pentru 20% din timpul de execuție. Adică, dacă aveți motive să credeți că citirea poate dura mult timp (de exemplu, datele nu sunt adesea în cache și trebuie să mergeți pe disc pentru aceasta), atunci în acest fel puteți depinde mai puțin de citire .
În orice caz, timpul de execuție s-a dovedit a fi mai bun decât în prima opțiune „naivă”. Dar care dintre aceste 3 opțiuni să folosești depinde de tine.
Sursa: www.habr.com