Повремено се јавља задатак тражења повезаних података помоћу скупа кључева. док не добијемо потребан укупан број записа.
Највише „стварног“ примера је приказивање 20 најстаријих проблема, наведен на списку запослених (на пример, у оквиру једне дивизије). За различите управљачке „контролне табле“ са кратким резимеима радних области, слична тема је често потребна.
У овом чланку ћемо погледати имплементацију у ПостгреСКЛ-у "наивног" решења за такав проблем, "паметнијег" и веома сложеног алгоритма „петља“ у СКЛ-у са излазним условом из пронађених података, што може бити корисно и за општи развој и за употребу у другим сличним случајевима.
Узмимо скуп тестних података из
CREATE INDEX ON task(owner_id, task_date, id);
-- а старый - удалим
DROP INDEX task_owner_id_task_date_idx;
Како се чује, тако се и пише
Прво, скицирајмо најједноставнију верзију захтева, преносећи ИД-ове извођача
SELECT
*
FROM
task
WHERE
owner_id = ANY('{1,2,4,8,16,32,64,128,256,512}'::integer[])
ORDER BY
task_date, id
LIMIT 20;
Мало тужно – наручили смо само 20 записа, али нам га је Индек Сцан вратио 960 редова, који је тада такође морао да се среди... Хајде да покушамо да мање читамо.
уннест + НИЗ
Прво разматрање које ће нам помоћи је да ли нам треба само 20 сортираних записе, па само прочитајте не више од 20 сортираних истим редоследом за сваку кључ. Добро, одговарајући индекс (овнер_ид, таск_дате, ид) имамо.
Хајде да користимо исти механизам за издвајање и „ширење у колоне“ интегрални табеларни запис, као у ARRAY()
:
WITH T AS (
SELECT
unnest(ARRAY(
SELECT
t
FROM
task t
WHERE
owner_id = unnest
ORDER BY
task_date, id
LIMIT 20 -- ограничиваем тут...
)) r
FROM
unnest('{1,2,4,8,16,32,64,128,256,512}'::integer[])
)
SELECT
(r).*
FROM
T
ORDER BY
(r).task_date, (r).id
LIMIT 20; -- ... и тут - тоже
Ох, већ много боље! 40% брже и 4.5 пута мање података Морао сам да га прочитам.
Материјализација записа табеле преко ЦТЕДозволите ми да вам скренем пажњу на чињеницу да у неким случајевима Покушај да се одмах ради са пољима записа након тражења у потупиту, без „умотавања“ у ЦТЕ, може довести до "умножи" ИнитПлан пропорционално броју ових истих поља:
SELECT
((
SELECT
t
FROM
task t
WHERE
owner_id = 1
ORDER BY
task_date, id
LIMIT 1
).*);
Result (cost=4.77..4.78 rows=1 width=16) (actual time=0.063..0.063 rows=1 loops=1)
Buffers: shared hit=16
InitPlan 1 (returns $0)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.031..0.032 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t (cost=0.42..387.57 rows=500 width=48) (actual time=0.030..0.030 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4
InitPlan 2 (returns $1)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.008..0.009 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t_1 (cost=0.42..387.57 rows=500 width=48) (actual time=0.008..0.008 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4
InitPlan 3 (returns $2)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.008..0.008 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t_2 (cost=0.42..387.57 rows=500 width=48) (actual time=0.008..0.008 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4"
InitPlan 4 (returns $3)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.009..0.009 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t_3 (cost=0.42..387.57 rows=500 width=48) (actual time=0.009..0.009 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4
Исти запис је „претражен“ 4 пута... Све до ПостгреСКЛ 11, ово понашање се дешавало редовно, а решење је да се „умота“ у ЦТЕ, што је апсолутно ограничење за оптимизатор у овим верзијама.
Рекурзивни акумулатор
У претходној верзији, укупно читамо 200 редова ради потребних 20. Не 960, али још мање – да ли је могуће?
Покушајмо да искористимо знање које нам је потребно укупно 20 записи. То јест, понављаћемо читање података само док не достигнемо количину која нам је потребна.
Корак 1: Почетна листа
Очигледно, наша „циљна“ листа од 20 записа треба да почне са „првим“ записима за један од наших кључева овнер_ид. Стога ћемо прво наћи такве „врло први“ за сваки од кључева и додајте га на листу, сортирајући је редоследом којим желимо - (датум_задатка, ид).
Корак 2: Пронађите „следеће“ уносе
Сада ако узмемо први унос са наше листе и почнемо „коракните“ даље дуж индекса чувајући кључ овнер_ид, онда су сви пронађени записи управо следећи у резултујућој селекцији. Наравно, само док не пређемо кундак кључ други унос на листи.
Ако се испостави да смо „прешли” други рекорд, онда последњи прочитани унос треба додати на листу уместо првог (са истим овнер_ид), након чега поново сортирамо листу.
То јест, увек добијамо да листа нема више од једног уноса за сваки од кључева (ако уноси понестане и не „укрстимо“, онда ће први унос са листе једноставно нестати и ништа се неће додати ), а они увек сортирано у растућем редоследу кључа апликације (таск_дате, ид).
Корак 3: филтрирајте и „проширите“ записе
У неким редовима наше рекурзивне селекције, неки записи rv
се дуплирају - прво налазимо као што је „прелазак границе 2. уноса на листи“, а затим га замењујемо као 1. са листе. Дакле, прво појављивање треба филтрирати.
Застрашујући коначни упит
WITH RECURSIVE T AS (
-- #1 : заносим в список "первые" записи по каждому из ключей набора
WITH wrap AS ( -- "материализуем" record'ы, чтобы обращение к полям не вызывало умножения InitPlan/SubPlan
WITH T AS (
SELECT
(
SELECT
r
FROM
task r
WHERE
owner_id = unnest
ORDER BY
task_date, id
LIMIT 1
) r
FROM
unnest('{1,2,4,8,16,32,64,128,256,512}'::integer[])
)
SELECT
array_agg(r ORDER BY (r).task_date, (r).id) list -- сортируем список в нужном порядке
FROM
T
)
SELECT
list
, list[1] rv
, FALSE not_cross
, 0 size
FROM
wrap
UNION ALL
-- #2 : вычитываем записи 1-го по порядку ключа, пока не перешагнем через запись 2-го
SELECT
CASE
-- если ничего не найдено для ключа 1-й записи
WHEN X._r IS NOT DISTINCT FROM NULL THEN
T.list[2:] -- убираем ее из списка
-- если мы НЕ пересекли прикладной ключ 2-й записи
WHEN X.not_cross THEN
T.list -- просто протягиваем тот же список без модификаций
-- если в списке уже нет 2-й записи
WHEN T.list[2] IS NULL THEN
-- просто возвращаем пустой список
'{}'
-- пересортировываем словарь, убирая 1-ю запись и добавляя последнюю из найденных
ELSE (
SELECT
coalesce(T.list[2] || array_agg(r ORDER BY (r).task_date, (r).id), '{}')
FROM
unnest(T.list[3:] || X._r) r
)
END
, X._r
, X.not_cross
, T.size + X.not_cross::integer
FROM
T
, LATERAL(
WITH wrap AS ( -- "материализуем" record
SELECT
CASE
-- если все-таки "перешагнули" через 2-ю запись
WHEN NOT T.not_cross
-- то нужная запись - первая из спписка
THEN T.list[1]
ELSE ( -- если не пересекли, то ключ остался как в предыдущей записи - отталкиваемся от нее
SELECT
_r
FROM
task _r
WHERE
owner_id = (rv).owner_id AND
(task_date, id) > ((rv).task_date, (rv).id)
ORDER BY
task_date, id
LIMIT 1
)
END _r
)
SELECT
_r
, CASE
-- если 2-й записи уже нет в списке, но мы хоть что-то нашли
WHEN list[2] IS NULL AND _r IS DISTINCT FROM NULL THEN
TRUE
ELSE -- ничего не нашли или "перешагнули"
coalesce(((_r).task_date, (_r).id) < ((list[2]).task_date, (list[2]).id), FALSE)
END not_cross
FROM
wrap
) X
WHERE
T.size < 20 AND -- ограничиваем тут количество
T.list IS DISTINCT FROM '{}' -- или пока список не кончился
)
-- #3 : "разворачиваем" записи - порядок гарантирован по построению
SELECT
(rv).*
FROM
T
WHERE
not_cross; -- берем только "непересекающие" записи
Дакле, ми трговало са 50% читања података за 20% времена извршења. То јест, ако имате разлога да верујете да читање може да потраје дуго (на пример, подаци често нису у кешу и морате да идете на диск за то), онда на овај начин можете мање да зависите од читања .
У сваком случају, време извршења се показало бољим него у „наивној“ првој опцији. Али коју од ове 3 опције ћете користити зависи од вас.
Извор: ввв.хабр.цом