Perioodiliselt kerkib üles ülesanne otsida seotud andmeid võtmekomplekti abil. kuni saame vajaliku koguarvu kirjeid.
Kõige "päriselu" näide on kuvamine 20 vanimat probleemi, loetletud töötajate nimekirjas (näiteks ühe divisjoni piires). Erinevate töövaldkondade lühikokkuvõtetega juhtimispaneelide jaoks on sarnast teemat vaja üsna sageli.
Selles artiklis vaatleme sellise probleemi "naiivse" lahenduse, "targema" ja väga keeruka algoritmi rakendamist PostgreSQL-is. "silmus" SQL-is leitud andmetest väljumise tingimusega, mis võib olla kasulik nii üldiseks arendamiseks kui ka kasutamiseks muudel sarnastel juhtudel.
Võtame testandmete komplekti
CREATE INDEX ON task(owner_id, task_date, id);
-- а старый - удалим
DROP INDEX task_owner_id_task_date_idx;
Nii nagu kuuldakse, nii kirjutatakse
Esmalt visandame päringu lihtsaima versiooni, edastades esitajate ID-d
SELECT
*
FROM
task
WHERE
owner_id = ANY('{1,2,4,8,16,32,64,128,256,512}'::integer[])
ORDER BY
task_date, id
LIMIT 20;
Natuke kurb – tellisime vaid 20 plaati, aga Index Scan tagastas selle meile 960 rida, mida tuli siis ka sorteerida... Proovime vähem lugeda.
unnest + ARRAY
Esimene kaalutlus, mis meid aitab, on see, kui vajame ainult 20 sorteeritud plaate, siis lihtsalt lugege mitte rohkem kui 20 sorteeritud samas järjekorras võti. hea, sobiv indeks (omaniku_id, ülesande_kuupäev, id) meil on.
Kasutame ekstraheerimiseks ja veergudeks hajutamiseks sama mehhanismi integreeritud tabelikirje, nagu ARRAY()
:
WITH T AS (
SELECT
unnest(ARRAY(
SELECT
t
FROM
task t
WHERE
owner_id = unnest
ORDER BY
task_date, id
LIMIT 20 -- ограничиваем тут...
)) r
FROM
unnest('{1,2,4,8,16,32,64,128,256,512}'::integer[])
)
SELECT
(r).*
FROM
T
ORDER BY
(r).task_date, (r).id
LIMIT 20; -- ... и тут - тоже
Oh, palju parem juba! 40% kiirem ja 4.5 korda vähem andmeid Ma pidin seda lugema.
Tabelikirjete materialiseerimine CTE kauduLubage mul juhtida teie tähelepanu asjaolule, et mõnel juhul Katse kohe pärast selle alampäringus otsimist kirje väljadega töötada, ilma seda CTE-sse "mähimata", võib viia "korrutage" InitPlan võrdeline nende samade väljade arvuga:
SELECT
((
SELECT
t
FROM
task t
WHERE
owner_id = 1
ORDER BY
task_date, id
LIMIT 1
).*);
Result (cost=4.77..4.78 rows=1 width=16) (actual time=0.063..0.063 rows=1 loops=1)
Buffers: shared hit=16
InitPlan 1 (returns $0)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.031..0.032 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t (cost=0.42..387.57 rows=500 width=48) (actual time=0.030..0.030 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4
InitPlan 2 (returns $1)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.008..0.009 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t_1 (cost=0.42..387.57 rows=500 width=48) (actual time=0.008..0.008 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4
InitPlan 3 (returns $2)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.008..0.008 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t_2 (cost=0.42..387.57 rows=500 width=48) (actual time=0.008..0.008 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4"
InitPlan 4 (returns $3)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.009..0.009 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t_3 (cost=0.42..387.57 rows=500 width=48) (actual time=0.009..0.009 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4
Sama kirjet “otsiti üles” 4 korda... Kuni PostgreSQL 11-ni esineb seda käitumist regulaarselt ja lahenduseks on see “pakkida” CTE-sse, mis on nende versioonide optimeerija jaoks absoluutne piirang.
Rekursiivne akumulaator
Eelmises versioonis lugesime kokku 200 rida nõutava 20 huvides. Mitte 960, aga veel vähem - kas see on võimalik?
Proovime kasutada teadmisi, mida vajame kokku 20 rekordid. See tähendab, et me kordame andmete lugemist ainult seni, kuni jõuame vajaliku summani.
1. samm: stardiloend
Ilmselgelt peaks meie 20 kirjest koosnev sihtloend algama ühe meie omaniku_id võtme "esimeste" kirjetega. Seetõttu leiame esmalt sellised "kõige esimene" iga klahvi jaoks ja lisage see loendisse, sorteerides selle soovitud järjekorras - (ülesande_kuupäev, id).
2. samm: otsige üles "järgmised" kirjed
Kui võtame nüüd oma loendist esimese kirje ja alustame "samm" piki indeksit edasi säilitades võtme omaniku_id, siis on kõik leitud kirjed täpselt järgmised saadud valikus. Muidugi ainult kuni me ületame tagumikuklahvi teine kirje nimekirjas.
Kui selgub, et "ületasime" teise rekordi, siis loendisse tuleks lisada viimane loetud kirje esimese asemel (sama omaniku_id-ga), mille järel sorteerime loendi uuesti.
See tähendab, et me saame alati selle, et loendis pole iga võtme kohta rohkem kui üks kirje (kui kirjed saavad otsa ja me ei "ristu", siis esimene kirje loendist lihtsalt kaob ja midagi ei lisata ), ja nemad alati sorteeritud rakenduse võtme (ülesande_kuupäev, id) kasvavas järjekorras.
3. toiming: filtreerige ja laiendage kirjeid
Meie rekursiivse valiku mõnes reas mõned kirjed rv
on dubleeritud - esmalt leiame näiteks "loendi 2. kirje piiri ületamine" ja seejärel asendame selle loendi esimesena. Seega tuleb esimene esinemine filtreerida.
Kardetud viimane päring
WITH RECURSIVE T AS (
-- #1 : заносим в список "первые" записи по каждому из ключей набора
WITH wrap AS ( -- "материализуем" record'ы, чтобы обращение к полям не вызывало умножения InitPlan/SubPlan
WITH T AS (
SELECT
(
SELECT
r
FROM
task r
WHERE
owner_id = unnest
ORDER BY
task_date, id
LIMIT 1
) r
FROM
unnest('{1,2,4,8,16,32,64,128,256,512}'::integer[])
)
SELECT
array_agg(r ORDER BY (r).task_date, (r).id) list -- сортируем список в нужном порядке
FROM
T
)
SELECT
list
, list[1] rv
, FALSE not_cross
, 0 size
FROM
wrap
UNION ALL
-- #2 : вычитываем записи 1-го по порядку ключа, пока не перешагнем через запись 2-го
SELECT
CASE
-- если ничего не найдено для ключа 1-й записи
WHEN X._r IS NOT DISTINCT FROM NULL THEN
T.list[2:] -- убираем ее из списка
-- если мы НЕ пересекли прикладной ключ 2-й записи
WHEN X.not_cross THEN
T.list -- просто протягиваем тот же список без модификаций
-- если в списке уже нет 2-й записи
WHEN T.list[2] IS NULL THEN
-- просто возвращаем пустой список
'{}'
-- пересортировываем словарь, убирая 1-ю запись и добавляя последнюю из найденных
ELSE (
SELECT
coalesce(T.list[2] || array_agg(r ORDER BY (r).task_date, (r).id), '{}')
FROM
unnest(T.list[3:] || X._r) r
)
END
, X._r
, X.not_cross
, T.size + X.not_cross::integer
FROM
T
, LATERAL(
WITH wrap AS ( -- "материализуем" record
SELECT
CASE
-- если все-таки "перешагнули" через 2-ю запись
WHEN NOT T.not_cross
-- то нужная запись - первая из спписка
THEN T.list[1]
ELSE ( -- если не пересекли, то ключ остался как в предыдущей записи - отталкиваемся от нее
SELECT
_r
FROM
task _r
WHERE
owner_id = (rv).owner_id AND
(task_date, id) > ((rv).task_date, (rv).id)
ORDER BY
task_date, id
LIMIT 1
)
END _r
)
SELECT
_r
, CASE
-- если 2-й записи уже нет в списке, но мы хоть что-то нашли
WHEN list[2] IS NULL AND _r IS DISTINCT FROM NULL THEN
TRUE
ELSE -- ничего не нашли или "перешагнули"
coalesce(((_r).task_date, (_r).id) < ((list[2]).task_date, (list[2]).id), FALSE)
END not_cross
FROM
wrap
) X
WHERE
T.size < 20 AND -- ограничиваем тут количество
T.list IS DISTINCT FROM '{}' -- или пока список не кончился
)
-- #3 : "разворачиваем" записи - порядок гарантирован по построению
SELECT
(rv).*
FROM
T
WHERE
not_cross; -- берем только "непересекающие" записи
Seega meie kaubeldi 50% andmete lugemisega 20% täitmisajast. See tähendab, et kui teil on põhjust arvata, et lugemine võib võtta kaua aega (näiteks pole sageli andmeid vahemälus ja selleks peate minema kettale), siis saate niiviisi lugemisest vähem sõltuda .
Täitmisaeg osutus igal juhul paremaks kui "naiivse" esimese variandi puhul. Kuid millist neist kolmest valikust kasutada, otsustate teie.
Allikas: www.habr.com