Povremeno se pojavljuje zadatak traženja srodnih podataka pomoću skupa ključeva. dok ne dobijemo potreban ukupan broj zapisa.
Primjer iz "stvarnog života" je prikazati 20 najstarijih problema, na popisu na popisu zaposlenih (na primjer, unutar jedne divizije). Za razne upravljačke “nadzorne ploče” s kratkim sažetcima područja rada slična je tema vrlo često potrebna.
U ovom članku ćemo pogledati implementaciju u PostgreSQL "naivnog" rješenja za takav problem, "pametnijeg" i vrlo složenog algoritma “petlja” u SQL-u s izlaznim uvjetom iz pronađenih podataka, što može biti korisno i za opći razvoj i za korištenje u drugim sličnim slučajevima.
Uzmimo testni skup podataka iz
CREATE INDEX ON task(owner_id, task_date, id);
-- а старый - удалим
DROP INDEX task_owner_id_task_date_idx;
Kako se čuje, tako se i napiše
Prvo, skicirajmo najjednostavniju verziju zahtjeva, prosljeđujući ID-ove izvođača
SELECT
*
FROM
task
WHERE
owner_id = ANY('{1,2,4,8,16,32,64,128,256,512}'::integer[])
ORDER BY
task_date, id
LIMIT 20;
Malo tužno - naručili smo samo 20 zapisa, ali Index Scan nam ih je vratio 960 redaka, koje je onda također trebalo sortirati... Pokušajmo manje čitati.
unnest + NIZ
Prvo razmatranje koje će nam pomoći je ako trebamo samo 20 sortiranih zapise, onda samo čitajte ne više od 20 sortiranih istim redoslijedom za svaku ključ. Dobro, odgovarajući indeks (owner_id, task_date, id) imamo.
Upotrijebimo isti mehanizam za izdvajanje i “širenje u stupce” zapis integralne tablice, kao u ARRAY()
:
WITH T AS (
SELECT
unnest(ARRAY(
SELECT
t
FROM
task t
WHERE
owner_id = unnest
ORDER BY
task_date, id
LIMIT 20 -- ограничиваем тут...
)) r
FROM
unnest('{1,2,4,8,16,32,64,128,256,512}'::integer[])
)
SELECT
(r).*
FROM
T
ORDER BY
(r).task_date, (r).id
LIMIT 20; -- ... и тут - тоже
Oh, već je puno bolje! 40% brže i 4.5 puta manje podataka Morao sam to pročitati.
Materijalizacija tabličnih zapisa putem CTE-aDopustite mi da vam skrenem pozornost na činjenicu da U nekim slučajevima Pokušaj da se odmah radi s poljima zapisa nakon traženja u podupitu, bez "omatanja" u CTE, može dovesti do "množenje" InitPlan proporcionalno broju tih istih polja:
SELECT
((
SELECT
t
FROM
task t
WHERE
owner_id = 1
ORDER BY
task_date, id
LIMIT 1
).*);
Result (cost=4.77..4.78 rows=1 width=16) (actual time=0.063..0.063 rows=1 loops=1)
Buffers: shared hit=16
InitPlan 1 (returns $0)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.031..0.032 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t (cost=0.42..387.57 rows=500 width=48) (actual time=0.030..0.030 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4
InitPlan 2 (returns $1)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.008..0.009 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t_1 (cost=0.42..387.57 rows=500 width=48) (actual time=0.008..0.008 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4
InitPlan 3 (returns $2)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.008..0.008 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t_2 (cost=0.42..387.57 rows=500 width=48) (actual time=0.008..0.008 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4"
InitPlan 4 (returns $3)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.009..0.009 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t_3 (cost=0.42..387.57 rows=500 width=48) (actual time=0.009..0.009 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4
Isti zapis je “pogledan” 4 puta... Sve do PostgreSQL 11, ovo se ponašanje događa redovito, a rješenje je da se “umota” u CTE, što je apsolutno ograničenje za optimizator u ovim verzijama.
Rekurzivni akumulator
U prethodnoj verziji, ukupno čitamo 200 redaka radi potrebnih 20. Ne 960, nego još manje - je li moguće?
Pokušajmo iskoristiti znanje koje nam je potrebno ukupno 20 zapisa. To jest, ponavljat ćemo čitanje podataka samo dok ne dosegnemo količinu koja nam je potrebna.
Korak 1: Startna lista
Očito, naš "ciljani" popis od 20 zapisa trebao bi početi s "prvim" zapisima za jedan od naših owner_id ključeva. Stoga ćemo prvo pronaći takve "vrlo prvi" za svaki od ključeva i dodamo ga na popis, sortirajući redoslijedom kojim želimo - (task_date, id).
Korak 2: Pronađite "sljedeće" unose
Sad ako uzmemo prvi unos s našeg popisa i počnemo “korak” dalje duž indeksa čuvajući ključ owner_id, tada su svi pronađeni zapisi upravo sljedeći u rezultirajućem odabiru. Naravno, samo dok ne prijeđemo ključ za zadnjicu drugi unos na popisu.
Ako se pokaže da smo “prešli” drugi rekord, onda posljednji pročitani unos treba dodati na popis umjesto prvog (s istim owner_id), nakon čega ponovno sortiramo popis.
Odnosno, uvijek dobijemo da lista nema više od jednog unosa za svaki od ključeva (ako ponestane unosa i ne “križimo”, tada će prvi unos s popisa jednostavno nestati i ništa se neće dodati ), i oni uvijek sortirano uzlaznim redoslijedom ključa aplikacije (task_date, id).
Korak 3: filtrirajte i "proširite" zapise
U nekim od redaka našeg rekurzivnog odabira, neki zapisi rv
su duplicirani - prvo nalazimo kao što je “prelazak granice 2. unosa na popisu”, a zatim ga zamijenimo kao 1. s popisa. Dakle, prvo pojavljivanje treba filtrirati.
Zastrašujuće posljednje pitanje
WITH RECURSIVE T AS (
-- #1 : заносим в список "первые" записи по каждому из ключей набора
WITH wrap AS ( -- "материализуем" record'ы, чтобы обращение к полям не вызывало умножения InitPlan/SubPlan
WITH T AS (
SELECT
(
SELECT
r
FROM
task r
WHERE
owner_id = unnest
ORDER BY
task_date, id
LIMIT 1
) r
FROM
unnest('{1,2,4,8,16,32,64,128,256,512}'::integer[])
)
SELECT
array_agg(r ORDER BY (r).task_date, (r).id) list -- сортируем список в нужном порядке
FROM
T
)
SELECT
list
, list[1] rv
, FALSE not_cross
, 0 size
FROM
wrap
UNION ALL
-- #2 : вычитываем записи 1-го по порядку ключа, пока не перешагнем через запись 2-го
SELECT
CASE
-- если ничего не найдено для ключа 1-й записи
WHEN X._r IS NOT DISTINCT FROM NULL THEN
T.list[2:] -- убираем ее из списка
-- если мы НЕ пересекли прикладной ключ 2-й записи
WHEN X.not_cross THEN
T.list -- просто протягиваем тот же список без модификаций
-- если в списке уже нет 2-й записи
WHEN T.list[2] IS NULL THEN
-- просто возвращаем пустой список
'{}'
-- пересортировываем словарь, убирая 1-ю запись и добавляя последнюю из найденных
ELSE (
SELECT
coalesce(T.list[2] || array_agg(r ORDER BY (r).task_date, (r).id), '{}')
FROM
unnest(T.list[3:] || X._r) r
)
END
, X._r
, X.not_cross
, T.size + X.not_cross::integer
FROM
T
, LATERAL(
WITH wrap AS ( -- "материализуем" record
SELECT
CASE
-- если все-таки "перешагнули" через 2-ю запись
WHEN NOT T.not_cross
-- то нужная запись - первая из спписка
THEN T.list[1]
ELSE ( -- если не пересекли, то ключ остался как в предыдущей записи - отталкиваемся от нее
SELECT
_r
FROM
task _r
WHERE
owner_id = (rv).owner_id AND
(task_date, id) > ((rv).task_date, (rv).id)
ORDER BY
task_date, id
LIMIT 1
)
END _r
)
SELECT
_r
, CASE
-- если 2-й записи уже нет в списке, но мы хоть что-то нашли
WHEN list[2] IS NULL AND _r IS DISTINCT FROM NULL THEN
TRUE
ELSE -- ничего не нашли или "перешагнули"
coalesce(((_r).task_date, (_r).id) < ((list[2]).task_date, (list[2]).id), FALSE)
END not_cross
FROM
wrap
) X
WHERE
T.size < 20 AND -- ограничиваем тут количество
T.list IS DISTINCT FROM '{}' -- или пока список не кончился
)
-- #3 : "разворачиваем" записи - порядок гарантирован по построению
SELECT
(rv).*
FROM
T
WHERE
not_cross; -- берем только "непересекающие" записи
Dakle, mi trgovano 50% čitanja podataka za 20% vremena izvršenja. Odnosno, ako imate razloga vjerovati da bi čitanje moglo trajati dugo (na primjer, podaci često nisu u predmemoriji i morate ići na disk po njih), tada na ovaj način možete manje ovisiti o čitanju .
U svakom slučaju, vrijeme izvršenja se pokazalo boljim nego u "naivnoj" prvoj opciji. Ali koju od ove 3 opcije koristiti ovisi o vama.
Izvor: www.habr.com