Periyodik olarak, ilgili verileri bir dizi anahtarla arama görevi ortaya çıkar, Gerekli toplam kayıt sayısını elde edene kadar.
En "gerçeğe yakın" örnek, En eski 20 sorun, listelenmiş çalışan listesinde (örneğin, aynı departman içinde). Çalışma alanlarının kısa özetlerini içeren çeşitli yönetim "panoları" için, benzer bir konuya oldukça sık ihtiyaç duyulur.
Makalede, PostgreSQL'de böyle bir sorunu çözmenin "saf" bir sürümünün, "daha akıllı" ve çok karmaşık bir algoritmanın uygulanmasını ele alacağız. Bulunan verilerden bir çıkış koşuluyla SQL'de "döngü", hem genel geliştirme hem de diğer benzer durumlarda kullanım için yararlı olabilir.
Şuradan bir test veri kümesi alalım:
CREATE INDEX ON task(owner_id, task_date, id);
-- а старый - удалим
DROP INDEX task_owner_id_task_date_idx;
Duyulduğu gibi yazılır
Öncelikle, sanatçıların kimliklerini ileterek isteğin en basit versiyonunu çizelim.
SELECT
*
FROM
task
WHERE
owner_id = ANY('{1,2,4,8,16,32,64,128,256,512}'::integer[])
ORDER BY
task_date, id
LIMIT 20;
Biraz üzücü - sadece 20 kayıt sipariş ettik ve Dizin Taraması bize geri döndü 960 satır, o zaman da sıralanması gerekiyordu ... Ve daha az okumaya çalışalım.
iç içe + DİZİ
Bize yardımcı olacak ilk düşünce - ihtiyacımız olursa toplam 20 sıralanmış kayıtları okumanız yeterli her biri için aynı sırada sıralanmış en fazla 20 anahtar. İyi, uygun indeks (sahip_kimliği, görev_tarihi, kimlik) sahibiz.
Aynı ayıklama ve "sütunlara dönüştürme" mekanizmasını kullanalım entegre tablo girişi, de olduğu gibi ARRAY()
:
WITH T AS (
SELECT
unnest(ARRAY(
SELECT
t
FROM
task t
WHERE
owner_id = unnest
ORDER BY
task_date, id
LIMIT 20 -- ограничиваем тут...
)) r
FROM
unnest('{1,2,4,8,16,32,64,128,256,512}'::integer[])
)
SELECT
(r).*
FROM
T
ORDER BY
(r).task_date, (r).id
LIMIT 20; -- ... и тут - тоже
Oh, zaten çok daha iyi! %40 daha hızlı ve 4.5 kat daha az veri okumak zorunda kaldı.
CTE aracılığıyla tablo kayıtlarının somutlaştırılmasınot edeceğim bazı durumlarda bir CTE'de "sarmalama" yapmadan, bir alt sorguda kayıt alanlarını aradıktan sonra hemen kayıt alanlarıyla çalışma girişimi şu sonuçlara yol açabilir: "çarpma" Başlatma Planı bu aynı alanların sayısıyla orantılı:
SELECT
((
SELECT
t
FROM
task t
WHERE
owner_id = 1
ORDER BY
task_date, id
LIMIT 1
).*);
Result (cost=4.77..4.78 rows=1 width=16) (actual time=0.063..0.063 rows=1 loops=1)
Buffers: shared hit=16
InitPlan 1 (returns $0)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.031..0.032 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t (cost=0.42..387.57 rows=500 width=48) (actual time=0.030..0.030 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4
InitPlan 2 (returns $1)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.008..0.009 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t_1 (cost=0.42..387.57 rows=500 width=48) (actual time=0.008..0.008 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4
InitPlan 3 (returns $2)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.008..0.008 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t_2 (cost=0.42..387.57 rows=500 width=48) (actual time=0.008..0.008 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4"
InitPlan 4 (returns $3)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.009..0.009 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t_3 (cost=0.42..387.57 rows=500 width=48) (actual time=0.009..0.009 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4
Aynı kayıt 4 kez “arandı”… PostgreSQL 11'e kadar bu davranış düzenli olarak meydana geliyordu ve çözüm, bu sürümlerde optimize edici için koşulsuz bir sınır olan bir CTE'ye “sarma” idi.
özyinelemeli biriktirici
Önceki sürümde, toplamda okuduk 200 satır gerekli 20 uğruna. Zaten 960 değil, hatta daha azı - mümkün mü?
İhtiyacımız olan bilgiyi kullanmaya çalışalım toplam xnumx kayıtlar. Yani, veri çıkarma işlemini yalnızca ihtiyacımız olan miktara ulaşılana kadar yineleyeceğiz.
1. Adım: Listeyi Başlat
Açıkçası, 20 girişlik "hedef" listemiz, Owner_id anahtarlarımızdan birinin "ilk" girişleriyle başlamalıdır. Bu nedenle, önce böyle buluyoruz tuşların her biri için "ilk" ve istediğimiz sıraya göre sıralayarak listeye koyun - (task_date, id).
2. Adım: "sonraki" kayıtları bulun
Şimdi listemizden ilk girişi alırsak ve başlarsak dizinde daha aşağı "adım" own_id-anahtarını kaydederek, bulunan tüm kayıtlar sonuçtaki seçimde sadece bir sonraki kayıtlardır. Tabii ki, sadece uygulanan anahtarı geçene kadar listedeki ikinci giriş.
İkinci girişi "geçtiğimiz" ortaya çıktıysa, o zaman listeye ilk yerine son okunan giriş eklenmelidir (aynı Owner_id ile), bundan sonra liste tekrar sıralanır.
Yani, listenin her bir anahtar için birden fazla girişi olmadığını her zaman anlarız (girişler bittiyse ve “geçiş yapmadıysak”, o zaman ilk giriş listeden kaybolacak ve hiçbir şey eklenmeyecektir. ), ve onlar her zaman sıralanır uygulama anahtarının artan sırasına göre (task_date, id).
3. Adım: Kayıtları Filtreleme ve Genişletme
Özyinelemeli seçimimizin satırlar bölümünde bazı kayıtlar rv
çoğaltılır - önce "listenin 2. girişinin sınırını geçmek" gibi bir şey buluruz ve ardından listeden 1. olarak değiştiririz. Ve böylece ilk oluşum filtrelenmelidir.
Korkunç son sorgu
WITH RECURSIVE T AS (
-- #1 : заносим в список "первые" записи по каждому из ключей набора
WITH wrap AS ( -- "материализуем" record'ы, чтобы обращение к полям не вызывало умножения InitPlan/SubPlan
WITH T AS (
SELECT
(
SELECT
r
FROM
task r
WHERE
owner_id = unnest
ORDER BY
task_date, id
LIMIT 1
) r
FROM
unnest('{1,2,4,8,16,32,64,128,256,512}'::integer[])
)
SELECT
array_agg(r ORDER BY (r).task_date, (r).id) list -- сортируем список в нужном порядке
FROM
T
)
SELECT
list
, list[1] rv
, FALSE not_cross
, 0 size
FROM
wrap
UNION ALL
-- #2 : вычитываем записи 1-го по порядку ключа, пока не перешагнем через запись 2-го
SELECT
CASE
-- если ничего не найдено для ключа 1-й записи
WHEN X._r IS NOT DISTINCT FROM NULL THEN
T.list[2:] -- убираем ее из списка
-- если мы НЕ пересекли прикладной ключ 2-й записи
WHEN X.not_cross THEN
T.list -- просто протягиваем тот же список без модификаций
-- если в списке уже нет 2-й записи
WHEN T.list[2] IS NULL THEN
-- просто возвращаем пустой список
'{}'
-- пересортировываем словарь, убирая 1-ю запись и добавляя последнюю из найденных
ELSE (
SELECT
coalesce(T.list[2] || array_agg(r ORDER BY (r).task_date, (r).id), '{}')
FROM
unnest(T.list[3:] || X._r) r
)
END
, X._r
, X.not_cross
, T.size + X.not_cross::integer
FROM
T
, LATERAL(
WITH wrap AS ( -- "материализуем" record
SELECT
CASE
-- если все-таки "перешагнули" через 2-ю запись
WHEN NOT T.not_cross
-- то нужная запись - первая из спписка
THEN T.list[1]
ELSE ( -- если не пересекли, то ключ остался как в предыдущей записи - отталкиваемся от нее
SELECT
_r
FROM
task _r
WHERE
owner_id = (rv).owner_id AND
(task_date, id) > ((rv).task_date, (rv).id)
ORDER BY
task_date, id
LIMIT 1
)
END _r
)
SELECT
_r
, CASE
-- если 2-й записи уже нет в списке, но мы хоть что-то нашли
WHEN list[2] IS NULL AND _r IS DISTINCT FROM NULL THEN
TRUE
ELSE -- ничего не нашли или "перешагнули"
coalesce(((_r).task_date, (_r).id) < ((list[2]).task_date, (list[2]).id), FALSE)
END not_cross
FROM
wrap
) X
WHERE
T.size < 20 AND -- ограничиваем тут количество
T.list IS DISTINCT FROM '{}' -- или пока список не кончился
)
-- #3 : "разворачиваем" записи - порядок гарантирован по построению
SELECT
(rv).*
FROM
T
WHERE
not_cross; -- берем только "непересекающие" записи
Böylece, biz %50 yürütme süresi için %20 veri okuma işlemi yapıldı. Yani, okumanın uzun olabileceğine inanmak için bir nedeniniz varsa (örneğin, veriler genellikle önbellekte olmaz ve bunun için diske gitmeniz gerekir), o zaman bu şekilde daha az okumaya güvenebilirsiniz.
Her durumda, yürütme süresi "saf" ilk seçenekten daha iyi çıktı. Ancak bu 3 seçenekten hangisini kullanacağınız size kalmış.
Kaynak: habr.com