Okresowo pojawia się zadanie wyszukiwania powiązanych danych za pomocą zestawu kluczy, aż uzyskamy wymaganą łączną liczbę rekordów.
Najbardziej „realistycznym” przykładem jest wyświetlenie 20 najstarszych problemów, wymienione na liście pracowników (na przykład w ramach tego samego działu). W przypadku różnych „dashboardów” menedżerskich z krótkimi podsumowaniami obszarów pracy dość często wymagany jest podobny temat.
W artykule rozważymy wdrożenie na PostgreSQL „naiwnej” wersji rozwiązania takiego problemu, „mądrzejszego” i bardzo złożonego algorytmu „pętla” w SQL z warunkiem wyjścia ze znalezionych danych, które mogą być przydatne zarówno do ogólnego rozwoju, jak i do wykorzystania w innych podobnych przypadkach.
Weźmy testowy zestaw danych z
CREATE INDEX ON task(owner_id, task_date, id);
-- а старый - удалим
DROP INDEX task_owner_id_task_date_idx;
Jak się słyszy, tak jest napisane
Najpierw naszkicujmy najprostszą wersję żądania, przekazując identyfikatory wykonawców
SELECT
*
FROM
task
WHERE
owner_id = ANY('{1,2,4,8,16,32,64,128,256,512}'::integer[])
ORDER BY
task_date, id
LIMIT 20;
Trochę smutno - zamówiliśmy tylko 20 płyt, a Index Scan zwrócił nam Wiersze 960, które potem też trzeba było posortować... A spróbujmy mniej czytać.
rozgnieść + TABLICA
Pierwsza uwaga, która nam pomoże - jeśli tego potrzebujemy łącznie 20 posortowanych zapisy, wystarczy przeczytać nie więcej niż 20 posortowanych w tej samej kolejności dla każdego klucz. Dobry, odpowiedni indeks (identyfikator_właściciela, data_zadania, identyfikator) mamy.
Użyjmy tego samego mechanizmu wydobywania i „zamieniania w kolumny” integralny wpis w tabeli, jak w ARRAY()
:
WITH T AS (
SELECT
unnest(ARRAY(
SELECT
t
FROM
task t
WHERE
owner_id = unnest
ORDER BY
task_date, id
LIMIT 20 -- ограничиваем тут...
)) r
FROM
unnest('{1,2,4,8,16,32,64,128,256,512}'::integer[])
)
SELECT
(r).*
FROM
T
ORDER BY
(r).task_date, (r).id
LIMIT 20; -- ... и тут - тоже
O, już jest dużo lepiej! 40% szybciej i 4.5 razy mniej danych trzeba było przeczytać.
Materializacja rekordów tabeli poprzez CTEZanotuję to w niektórych przypadkach próba natychmiastowej pracy z polami rekordu po wyszukaniu go w podzapytaniu, bez „zawijania” w CTE, może doprowadzić do „Mnożenie” InitPlan proporcjonalna do liczby tych samych pól:
SELECT
((
SELECT
t
FROM
task t
WHERE
owner_id = 1
ORDER BY
task_date, id
LIMIT 1
).*);
Result (cost=4.77..4.78 rows=1 width=16) (actual time=0.063..0.063 rows=1 loops=1)
Buffers: shared hit=16
InitPlan 1 (returns $0)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.031..0.032 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t (cost=0.42..387.57 rows=500 width=48) (actual time=0.030..0.030 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4
InitPlan 2 (returns $1)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.008..0.009 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t_1 (cost=0.42..387.57 rows=500 width=48) (actual time=0.008..0.008 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4
InitPlan 3 (returns $2)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.008..0.008 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t_2 (cost=0.42..387.57 rows=500 width=48) (actual time=0.008..0.008 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4"
InitPlan 4 (returns $3)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.009..0.009 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t_3 (cost=0.42..387.57 rows=500 width=48) (actual time=0.009..0.009 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4
Ten sam rekord był „przeszukiwany” 4 razy… Do PostgreSQL 11 takie zachowanie występuje regularnie, a rozwiązaniem jest „zawijanie” w CTE, które jest bezwarunkową granicą dla optymalizatora w tych wersjach.
akumulator rekurencyjny
W poprzedniej wersji czytamy w sumie Wiersze 200 ze względu na niezbędne 20. Już nie 960, ale jeszcze mniej - czy to możliwe?
Spróbujmy wykorzystać potrzebną nam wiedzę łącznie 20 dokumentacja. Oznacza to, że będziemy iterować odejmowanie danych tylko do momentu osiągnięcia potrzebnej kwoty.
Krok 1: Lista startowa
Oczywiście nasza „docelowa” lista 20 wpisów powinna zaczynać się od „pierwszych” wpisów dla jednego z naszych kluczy id_właściciela. Dlatego najpierw znajdujemy takie „najpierw” dla każdego z kluczy i umieść go na liście, sortując w żądanej kolejności - (data_zadania, id).
Krok 2: znajdź „następne” rekordy
Teraz, jeśli weźmiemy pierwszy wpis z naszej listy i zaczniemy „krok” dalej w dół indeksu z zapisaniem klucza id_właściciela, to wszystkie znalezione rekordy są tylko kolejnymi w wynikowym wyborze. Oczywiście tylko aż przekroczymy zastosowany klucz drugi wpis na liście.
Gdyby okazało się, że „przekroczyliśmy” drugi wpis, to tak ostatnia przeczytana pozycja powinna zostać dodana do listy zamiast pierwszej (z tym samym id_właściciela), po czym lista jest ponownie sortowana.
To znaczy zawsze dostajemy, że na liście jest nie więcej niż jeden wpis dla każdego z kluczy (jeśli wpisy się skończyły, a my nie „skrzyżowaliśmy”, to pierwszy wpis po prostu zniknie z listy i nic nie zostanie dodane ), i oni zawsze posortowane rosnąco według klucza aplikacji (data_zadania, id).
Krok 3: Filtrowanie i rozszerzanie rekordów
W części wierszy naszego wyboru rekurencyjnego niektóre rekordy rv
są zduplikowane - najpierw znajdujemy np. „przekroczenie granicy drugiego wpisu na liście”, a następnie podstawiamy jako pierwszy z listy. I tak pierwsze wystąpienie powinno zostać odfiltrowane.
Okropne ostatnie zapytanie
WITH RECURSIVE T AS (
-- #1 : заносим в список "первые" записи по каждому из ключей набора
WITH wrap AS ( -- "материализуем" record'ы, чтобы обращение к полям не вызывало умножения InitPlan/SubPlan
WITH T AS (
SELECT
(
SELECT
r
FROM
task r
WHERE
owner_id = unnest
ORDER BY
task_date, id
LIMIT 1
) r
FROM
unnest('{1,2,4,8,16,32,64,128,256,512}'::integer[])
)
SELECT
array_agg(r ORDER BY (r).task_date, (r).id) list -- сортируем список в нужном порядке
FROM
T
)
SELECT
list
, list[1] rv
, FALSE not_cross
, 0 size
FROM
wrap
UNION ALL
-- #2 : вычитываем записи 1-го по порядку ключа, пока не перешагнем через запись 2-го
SELECT
CASE
-- если ничего не найдено для ключа 1-й записи
WHEN X._r IS NOT DISTINCT FROM NULL THEN
T.list[2:] -- убираем ее из списка
-- если мы НЕ пересекли прикладной ключ 2-й записи
WHEN X.not_cross THEN
T.list -- просто протягиваем тот же список без модификаций
-- если в списке уже нет 2-й записи
WHEN T.list[2] IS NULL THEN
-- просто возвращаем пустой список
'{}'
-- пересортировываем словарь, убирая 1-ю запись и добавляя последнюю из найденных
ELSE (
SELECT
coalesce(T.list[2] || array_agg(r ORDER BY (r).task_date, (r).id), '{}')
FROM
unnest(T.list[3:] || X._r) r
)
END
, X._r
, X.not_cross
, T.size + X.not_cross::integer
FROM
T
, LATERAL(
WITH wrap AS ( -- "материализуем" record
SELECT
CASE
-- если все-таки "перешагнули" через 2-ю запись
WHEN NOT T.not_cross
-- то нужная запись - первая из спписка
THEN T.list[1]
ELSE ( -- если не пересекли, то ключ остался как в предыдущей записи - отталкиваемся от нее
SELECT
_r
FROM
task _r
WHERE
owner_id = (rv).owner_id AND
(task_date, id) > ((rv).task_date, (rv).id)
ORDER BY
task_date, id
LIMIT 1
)
END _r
)
SELECT
_r
, CASE
-- если 2-й записи уже нет в списке, но мы хоть что-то нашли
WHEN list[2] IS NULL AND _r IS DISTINCT FROM NULL THEN
TRUE
ELSE -- ничего не нашли или "перешагнули"
coalesce(((_r).task_date, (_r).id) < ((list[2]).task_date, (list[2]).id), FALSE)
END not_cross
FROM
wrap
) X
WHERE
T.size < 20 AND -- ограничиваем тут количество
T.list IS DISTINCT FROM '{}' -- или пока список не кончился
)
-- #3 : "разворачиваем" записи - порядок гарантирован по построению
SELECT
(rv).*
FROM
T
WHERE
not_cross; -- берем только "непересекающие" записи
Tak więc my wymienił 50% odczytów danych za 20% czasu wykonania. Oznacza to, że jeśli masz powody sądzić, że czytanie może być długie (na przykład dane często nie znajdują się w pamięci podręcznej i musisz przejść do dysku), w ten sposób możesz polegać na czytaniu mniej.
W każdym razie czas wykonania okazał się lepszy niż w „naiwnym” pierwszym wariancie. Ale którą z tych 3 opcji użyjesz, zależy od Ciebie.
Źródło: www.habr.com