Periodiski rodas uzdevums meklēt saistītos datus pēc atslēgu kopas, līdz iegūstam nepieciešamo kopējo ierakstu skaitu.
Visvairāk "dzīves" piemērs ir parādīt 20 senākās problēmas, uzskaitīti darbinieku sarakstā (piemēram, tajā pašā nodaļā). Dažādiem vadības "informācijas paneļiem" ar īsiem darba jomu kopsavilkumiem līdzīga tēma ir nepieciešama diezgan bieži.
Rakstā mēs apsvērsim šādas problēmas risināšanas “naivas” versijas ieviešanu PostgreSQL, “gudrāku” un ļoti sarežģītu algoritmu. "cilpa" SQL ar izejas nosacījumu no atrastajiem datiem, kas var noderēt gan vispārējai attīstībai, gan lietošanai citos līdzīgos gadījumos.
Ņemsim testa datu kopu no
CREATE INDEX ON task(owner_id, task_date, id);
-- а старый - удалим
DROP INDEX task_owner_id_task_date_idx;
Kā dzirdēts, tā rakstīts
Vispirms ieskicēsim vienkāršāko pieprasījuma versiju, nododot izpildītāju ID
SELECT
*
FROM
task
WHERE
owner_id = ANY('{1,2,4,8,16,32,64,128,256,512}'::integer[])
ORDER BY
task_date, id
LIMIT 20;
Mazliet skumji – pasūtījām tikai 20 ierakstus, un Index Scan mums atdeva 960 rindas, kas tad arī bija jāšķiro... Un mēģināsim mazāk lasīt.
unnest + ARRAY
Pirmais apsvērums, kas mums palīdzēs – ja vajag kopā 20 sakārtoti ierakstus, pietiek izlasīt ne vairāk kā 20 sakārtoti tādā pašā secībā katram taustiņu. Labi, piemērots indekss (īpašnieka_id, uzdevuma_datums, id) mums ir.
Izmantosim to pašu izvilkšanas un "pārvēršanas kolonnās" mehānismu neatņemama tabulas ievade, kā ARRAY()
:
WITH T AS (
SELECT
unnest(ARRAY(
SELECT
t
FROM
task t
WHERE
owner_id = unnest
ORDER BY
task_date, id
LIMIT 20 -- ограничиваем тут...
)) r
FROM
unnest('{1,2,4,8,16,32,64,128,256,512}'::integer[])
)
SELECT
(r).*
FROM
T
ORDER BY
(r).task_date, (r).id
LIMIT 20; -- ... и тут - тоже
Ak, tas jau ir daudz labāk! Par 40% ātrāk un 4.5 reizes mazāk datu bija jālasa.
Tabulas ierakstu materializācija, izmantojot CTEEs to atzīmēšu dažos gadījumos mēģinājums nekavējoties strādāt ar ieraksta laukiem pēc to meklēšanas apakšvaicājumā, “neiesaiņojot” CTE, var izraisīt "reizināšana" InitPlan proporcionāls šo pašu lauku skaitam:
SELECT
((
SELECT
t
FROM
task t
WHERE
owner_id = 1
ORDER BY
task_date, id
LIMIT 1
).*);
Result (cost=4.77..4.78 rows=1 width=16) (actual time=0.063..0.063 rows=1 loops=1)
Buffers: shared hit=16
InitPlan 1 (returns $0)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.031..0.032 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t (cost=0.42..387.57 rows=500 width=48) (actual time=0.030..0.030 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4
InitPlan 2 (returns $1)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.008..0.009 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t_1 (cost=0.42..387.57 rows=500 width=48) (actual time=0.008..0.008 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4
InitPlan 3 (returns $2)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.008..0.008 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t_2 (cost=0.42..387.57 rows=500 width=48) (actual time=0.008..0.008 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4"
InitPlan 4 (returns $3)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.009..0.009 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t_3 (cost=0.42..387.57 rows=500 width=48) (actual time=0.009..0.009 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4
Tas pats ieraksts tika “meklēts” 4 reizes... Līdz PostgreSQL 11 šāda rīcība notiek regulāri, un risinājums ir “ietīt” CTE, kas ir beznosacījuma robeža optimizētājam šajās versijās.
rekursīvs akumulators
Iepriekšējā versijā kopumā mēs lasījām 200 rindas vajadzīgās 20 labad. Jau ne 960, bet vēl mazāk - vai tas ir iespējams?
Mēģināsim izmantot mums nepieciešamās zināšanas kopā xnumx ieraksti. Tas ir, mēs atkārtosim datu atņemšanu tikai līdz brīdim, kad tiks sasniegta nepieciešamā summa.
1. darbība: sākuma saraksts
Acīmredzot mūsu 20 ierakstu “mērķa” sarakstam jāsākas ar “pirmajiem” ierakstiem vienai no mūsu īpašnieka_id atslēgām. Tāpēc mēs vispirms atrodam tādus "pavisam pirmais" katram taustiņam un ievietojiet to sarakstā, sakārtojot mums vēlamajā secībā - (uzdevuma_datums, id).
2. darbība: atrodiet "nākamos" ierakstus
Tagad, ja mēs ņemam pirmo ierakstu no mūsu saraksta un sākam "kāpiet" tālāk indeksā ar īpašnieka_id-key saglabāšanu, tad visi atrastie ieraksti ir tikai nākamie iegūtajā atlasē. Protams, tikai līdz mēs šķērsojam lietoto taustiņu otrais ieraksts sarakstā.
Ja izrādījās, ka esam “šķērsojuši” otro ierakstu, tad sarakstam jāpievieno pēdējais lasītais ieraksts, nevis pirmais (ar to pašu īpašnieka_id), pēc kura saraksts tiek kārtots vēlreiz.
Tas ir, mēs vienmēr iegūstam, ka sarakstā ir ne vairāk kā viens ieraksts katrai atslēgai (ja ieraksti ir beigušies un mēs neesam “šķērsojuši”, tad pirmais ieraksts vienkārši pazudīs no saraksta un nekas netiks pievienots ), un viņi vienmēr sakārtots lietojumprogrammas atslēgas augošā secībā (uzdevuma_datums, id).
3. darbība: ierakstu filtrēšana un paplašināšana
Mūsu rekursīvās izlases rindu daļā daži ieraksti rv
tiek dublēti - vispirms atrodam tādus piemērus kā “šķērsojot saraksta 2. ieraksta robežu”, un pēc tam aizstājam to kā pirmo no saraksta. Un tāpēc pirmais gadījums ir jāfiltrē.
Briesmīgs pēdējais jautājums
WITH RECURSIVE T AS (
-- #1 : заносим в список "первые" записи по каждому из ключей набора
WITH wrap AS ( -- "материализуем" record'ы, чтобы обращение к полям не вызывало умножения InitPlan/SubPlan
WITH T AS (
SELECT
(
SELECT
r
FROM
task r
WHERE
owner_id = unnest
ORDER BY
task_date, id
LIMIT 1
) r
FROM
unnest('{1,2,4,8,16,32,64,128,256,512}'::integer[])
)
SELECT
array_agg(r ORDER BY (r).task_date, (r).id) list -- сортируем список в нужном порядке
FROM
T
)
SELECT
list
, list[1] rv
, FALSE not_cross
, 0 size
FROM
wrap
UNION ALL
-- #2 : вычитываем записи 1-го по порядку ключа, пока не перешагнем через запись 2-го
SELECT
CASE
-- если ничего не найдено для ключа 1-й записи
WHEN X._r IS NOT DISTINCT FROM NULL THEN
T.list[2:] -- убираем ее из списка
-- если мы НЕ пересекли прикладной ключ 2-й записи
WHEN X.not_cross THEN
T.list -- просто протягиваем тот же список без модификаций
-- если в списке уже нет 2-й записи
WHEN T.list[2] IS NULL THEN
-- просто возвращаем пустой список
'{}'
-- пересортировываем словарь, убирая 1-ю запись и добавляя последнюю из найденных
ELSE (
SELECT
coalesce(T.list[2] || array_agg(r ORDER BY (r).task_date, (r).id), '{}')
FROM
unnest(T.list[3:] || X._r) r
)
END
, X._r
, X.not_cross
, T.size + X.not_cross::integer
FROM
T
, LATERAL(
WITH wrap AS ( -- "материализуем" record
SELECT
CASE
-- если все-таки "перешагнули" через 2-ю запись
WHEN NOT T.not_cross
-- то нужная запись - первая из спписка
THEN T.list[1]
ELSE ( -- если не пересекли, то ключ остался как в предыдущей записи - отталкиваемся от нее
SELECT
_r
FROM
task _r
WHERE
owner_id = (rv).owner_id AND
(task_date, id) > ((rv).task_date, (rv).id)
ORDER BY
task_date, id
LIMIT 1
)
END _r
)
SELECT
_r
, CASE
-- если 2-й записи уже нет в списке, но мы хоть что-то нашли
WHEN list[2] IS NULL AND _r IS DISTINCT FROM NULL THEN
TRUE
ELSE -- ничего не нашли или "перешагнули"
coalesce(((_r).task_date, (_r).id) < ((list[2]).task_date, (list[2]).id), FALSE)
END not_cross
FROM
wrap
) X
WHERE
T.size < 20 AND -- ограничиваем тут количество
T.list IS DISTINCT FROM '{}' -- или пока список не кончился
)
-- #3 : "разворачиваем" записи - порядок гарантирован по построению
SELECT
(rv).*
FROM
T
WHERE
not_cross; -- берем только "непересекающие" записи
Tādējādi mēs tirgoti 50% datu nolasīšanas par 20% izpildes laiku. Tas ir, ja jums ir pamats uzskatīt, ka lasīšana var būt ilga (piemēram, dati bieži neatrodas kešatmiņā, un jums ir jāiet uz disku), tādā veidā jūs varat paļauties uz mazāku lasīšanu.
Katrā ziņā izpildes laiks izrādījās labāks nekā "naivajā" pirmajā variantā. Bet kuru no šīm 3 iespējām izmantot, ir atkarīgs no jums.
Avots: www.habr.com