Periodicamente surge a tarefa de buscar dados relacionados por um conjunto de chaves, até obtermos o número total necessário de registros.
O exemplo mais "realista" é exibir 20 problemas mais antigos, listado na lista de funcionários (por exemplo, dentro do mesmo departamento). Para vários "painéis" gerenciais com breves resumos das áreas de trabalho, um tópico semelhante é frequentemente necessário.
Neste artigo veremos a implementação no PostgreSQL de uma solução “ingênua” para tal problema, um algoritmo “mais inteligente” e muito complexo "loop" em SQL com uma condição de saída dos dados encontrados, que pode ser útil tanto para desenvolvimento geral quanto para uso em outros casos semelhantes.
Vamos pegar um conjunto de dados de teste de
CREATE INDEX ON task(owner_id, task_date, id);
-- а старый - удалим
DROP INDEX task_owner_id_task_date_idx;
Assim como se ouve, assim está escrito
Primeiro, vamos esboçar a versão mais simples da solicitação, passando os IDs dos executores
SELECT
*
FROM
task
WHERE
owner_id = ANY('{1,2,4,8,16,32,64,128,256,512}'::integer[])
ORDER BY
task_date, id
LIMIT 20;
Um pouco triste - pedimos apenas 20 registros e o Index Scan nos retornou Linhas 960, que então também teve que ser resolvido... E vamos tentar ler menos.
desaninhar + ARRAY
A primeira consideração que nos ajudará - se precisarmos total de 20 classificados registros, basta ler não mais que 20 classificados na mesma ordem para cada chave. Bom, índice adequado (owner_id, task_date, id) que temos.
Vamos usar o mesmo mecanismo de extrair e “transformar em colunas” entrada de tabela integral, como em ARRAY()
:
WITH T AS (
SELECT
unnest(ARRAY(
SELECT
t
FROM
task t
WHERE
owner_id = unnest
ORDER BY
task_date, id
LIMIT 20 -- ограничиваем тут...
)) r
FROM
unnest('{1,2,4,8,16,32,64,128,256,512}'::integer[])
)
SELECT
(r).*
FROM
T
ORDER BY
(r).task_date, (r).id
LIMIT 20; -- ... и тут - тоже
Ah, já está muito melhor! 40% mais rápido e 4.5 vezes menos dados tive que ler.
Materialização de registros de tabelas via CTEvou notar que em alguns casos uma tentativa de trabalhar imediatamente com os campos de registro após pesquisá-los em uma subconsulta, sem “envolvê-los” em um CTE, pode levar a "multiplicação" InitPlan proporcional ao número desses mesmos campos:
SELECT
((
SELECT
t
FROM
task t
WHERE
owner_id = 1
ORDER BY
task_date, id
LIMIT 1
).*);
Result (cost=4.77..4.78 rows=1 width=16) (actual time=0.063..0.063 rows=1 loops=1)
Buffers: shared hit=16
InitPlan 1 (returns $0)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.031..0.032 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t (cost=0.42..387.57 rows=500 width=48) (actual time=0.030..0.030 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4
InitPlan 2 (returns $1)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.008..0.009 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t_1 (cost=0.42..387.57 rows=500 width=48) (actual time=0.008..0.008 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4
InitPlan 3 (returns $2)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.008..0.008 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t_2 (cost=0.42..387.57 rows=500 width=48) (actual time=0.008..0.008 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4"
InitPlan 4 (returns $3)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.009..0.009 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t_3 (cost=0.42..387.57 rows=500 width=48) (actual time=0.009..0.009 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4
O mesmo registro foi “pesquisado” 4 vezes… Até o PostgreSQL 11, esse comportamento ocorre regularmente, e a solução é “envolver” um CTE, que é um limite incondicional para o otimizador nessas versões.
acumulador recursivo
Na versão anterior, lemos no total Linhas 200 pelos 20 necessários. Já não 960, mas menos ainda - é possível?
Vamos tentar usar o conhecimento que precisamos xnumx total registros. Ou seja, iteraremos a subtração de dados apenas até que a quantidade que precisamos seja atingida.
Etapa 1: lista inicial
Obviamente, nossa lista “alvo” de 20 entradas deve começar com as “primeiras” entradas de uma de nossas chavesowner_id. Portanto, primeiro encontramos tal "primeiro" para cada uma das chaves e coloque-o na lista, classificando-o na ordem que desejamos - (task_date, id).
Etapa 2: encontre os “próximos” registros
Agora, se pegarmos a primeira entrada da nossa lista e começarmos "passo" mais abaixo no índice ao salvar a chave_id do proprietário, todos os registros encontrados serão apenas os próximos na seleção resultante. Claro, apenas até cruzarmos a chave aplicada segunda entrada na lista.
Se descobrimos que "cruzamos" a segunda entrada, então a última entrada lida deve ser adicionada à lista em vez da primeira (com o mesmo proprietário_id), após o qual a lista é ordenada novamente.
Ou seja, sempre conseguimos que a lista não tenha mais do que uma entrada para cada uma das chaves (se as entradas acabarem e não tivermos “cruzado”, então a primeira entrada simplesmente desaparecerá da lista e nada será adicionado ), e eles sempre classificado em ordem crescente da chave do aplicativo (task_date, id).
Etapa 3: Filtrando e Expandindo Registros
Na parte das linhas da nossa seleção recursiva, alguns registros rv
são duplicados - primeiro encontramos como “cruzar a fronteira da 2ª entrada da lista” e depois substituímos como a 1ª da lista. E assim a primeira ocorrência deve ser filtrada.
Questão final terrível
WITH RECURSIVE T AS (
-- #1 : заносим в список "первые" записи по каждому из ключей набора
WITH wrap AS ( -- "материализуем" record'ы, чтобы обращение к полям не вызывало умножения InitPlan/SubPlan
WITH T AS (
SELECT
(
SELECT
r
FROM
task r
WHERE
owner_id = unnest
ORDER BY
task_date, id
LIMIT 1
) r
FROM
unnest('{1,2,4,8,16,32,64,128,256,512}'::integer[])
)
SELECT
array_agg(r ORDER BY (r).task_date, (r).id) list -- сортируем список в нужном порядке
FROM
T
)
SELECT
list
, list[1] rv
, FALSE not_cross
, 0 size
FROM
wrap
UNION ALL
-- #2 : вычитываем записи 1-го по порядку ключа, пока не перешагнем через запись 2-го
SELECT
CASE
-- если ничего не найдено для ключа 1-й записи
WHEN X._r IS NOT DISTINCT FROM NULL THEN
T.list[2:] -- убираем ее из списка
-- если мы НЕ пересекли прикладной ключ 2-й записи
WHEN X.not_cross THEN
T.list -- просто протягиваем тот же список без модификаций
-- если в списке уже нет 2-й записи
WHEN T.list[2] IS NULL THEN
-- просто возвращаем пустой список
'{}'
-- пересортировываем словарь, убирая 1-ю запись и добавляя последнюю из найденных
ELSE (
SELECT
coalesce(T.list[2] || array_agg(r ORDER BY (r).task_date, (r).id), '{}')
FROM
unnest(T.list[3:] || X._r) r
)
END
, X._r
, X.not_cross
, T.size + X.not_cross::integer
FROM
T
, LATERAL(
WITH wrap AS ( -- "материализуем" record
SELECT
CASE
-- если все-таки "перешагнули" через 2-ю запись
WHEN NOT T.not_cross
-- то нужная запись - первая из спписка
THEN T.list[1]
ELSE ( -- если не пересекли, то ключ остался как в предыдущей записи - отталкиваемся от нее
SELECT
_r
FROM
task _r
WHERE
owner_id = (rv).owner_id AND
(task_date, id) > ((rv).task_date, (rv).id)
ORDER BY
task_date, id
LIMIT 1
)
END _r
)
SELECT
_r
, CASE
-- если 2-й записи уже нет в списке, но мы хоть что-то нашли
WHEN list[2] IS NULL AND _r IS DISTINCT FROM NULL THEN
TRUE
ELSE -- ничего не нашли или "перешагнули"
coalesce(((_r).task_date, (_r).id) < ((list[2]).task_date, (list[2]).id), FALSE)
END not_cross
FROM
wrap
) X
WHERE
T.size < 20 AND -- ограничиваем тут количество
T.list IS DISTINCT FROM '{}' -- или пока список не кончился
)
-- #3 : "разворачиваем" записи - порядок гарантирован по построению
SELECT
(rv).*
FROM
T
WHERE
not_cross; -- берем только "непересекающие" записи
Então nós negociou 50% de leituras de dados por 20% de tempo de execução. Ou seja, se você tem motivos para acreditar que a leitura pode ser longa (por exemplo, os dados geralmente não estão no cache e você precisa ir ao disco para obtê-los), dessa forma você pode depender de menos leitura.
De qualquer forma, o tempo de execução acabou sendo melhor do que na primeira opção “ingênua”. Mas qual dessas 3 opções usar depende de você.
Fonte: habr.com