క్రమానుగతంగా, కీల సమితిని ఉపయోగించి సంబంధిత డేటా కోసం శోధించే పని తలెత్తుతుంది. మనకు అవసరమైన మొత్తం రికార్డుల సంఖ్య వచ్చే వరకు.
అత్యంత "నిజ జీవిత" ఉదాహరణ ప్రదర్శించడం 20 పురాతన సమస్యలు, జాబితా చేయబడింది ఉద్యోగుల జాబితాలో (ఉదాహరణకు, ఒక విభాగంలో). పని చేసే ప్రాంతాల సంక్షిప్త సారాంశాలతో వివిధ నిర్వహణ "డ్యాష్బోర్డ్లు" కోసం, ఇలాంటి అంశం చాలా తరచుగా అవసరం.
ఈ కథనంలో మనం PostgreSQLలో అటువంటి సమస్యకు "అమాయక" పరిష్కారం, "తెలివి" మరియు చాలా క్లిష్టమైన అల్గోరిథం యొక్క అమలును పరిశీలిస్తాము. కనుగొనబడిన డేటా నుండి నిష్క్రమణ షరతుతో SQLలో “లూప్”, ఇది సాధారణ అభివృద్ధికి మరియు ఇతర సారూప్య సందర్భాలలో ఉపయోగం కోసం ఉపయోగపడుతుంది.
నుండి పరీక్ష డేటా సెట్ తీసుకుందాం
CREATE INDEX ON task(owner_id, task_date, id);
-- а старый - удалим
DROP INDEX task_owner_id_task_date_idx;
వినబడినట్లుగా, అలా వ్రాస్తారు
ముందుగా, ప్రదర్శకుల IDలను పాస్ చేస్తూ అభ్యర్థన యొక్క సరళమైన సంస్కరణను గీయండి
SELECT
*
FROM
task
WHERE
owner_id = ANY('{1,2,4,8,16,32,64,128,256,512}'::integer[])
ORDER BY
task_date, id
LIMIT 20;
కొంచెం విచారకరం - మేము 20 రికార్డ్లను మాత్రమే ఆర్డర్ చేసాము, కానీ ఇండెక్స్ స్కాన్ దానిని మాకు తిరిగి ఇచ్చింది 960 లైన్లు, ఇది కూడా క్రమబద్ధీకరించబడాలి ... తక్కువ చదవడానికి ప్రయత్నిద్దాం.
unnest + ARRAY
మనకు అవసరమైనప్పుడు మనకు సహాయపడే మొదటి పరిశీలన 20 మాత్రమే క్రమబద్ధీకరించబడింది రికార్డులు, ఆపై చదవండి ప్రతిదానికి ఒకే క్రమంలో 20 కంటే ఎక్కువ క్రమబద్ధీకరించబడలేదు కీ. మంచిది, తగిన సూచిక (owner_id, task_date, id) మా వద్ద ఉంది.
సంగ్రహించడం మరియు “నిలువుల్లోకి విస్తరించడం” కోసం అదే విధానాన్ని ఉపయోగిస్తాము సమగ్ర పట్టిక రికార్డు, లో వలె ARRAY()
:
WITH T AS (
SELECT
unnest(ARRAY(
SELECT
t
FROM
task t
WHERE
owner_id = unnest
ORDER BY
task_date, id
LIMIT 20 -- ограничиваем тут...
)) r
FROM
unnest('{1,2,4,8,16,32,64,128,256,512}'::integer[])
)
SELECT
(r).*
FROM
T
ORDER BY
(r).task_date, (r).id
LIMIT 20; -- ... и тут - тоже
ఓహ్, ఇప్పటికే చాలా మంచిది! 40% వేగంగా మరియు 4.5 రెట్లు తక్కువ డేటా నేను దానిని చదవవలసి వచ్చింది.
CTE ద్వారా పట్టిక రికార్డుల మెటీరియలైజేషన్అనే వాస్తవాన్ని మీ దృష్టిని ఆకర్షిస్తాను కొన్ని సందర్బాలలో సబ్క్వెరీలో దాన్ని శోధించిన తర్వాత, దానిని CTEలో “చుట్టడం” చేయకుండా వెంటనే రికార్డ్ ఫీల్డ్లతో పని చేసే ప్రయత్నం దీనికి దారితీయవచ్చు. InitPlan "గుణించండి" ఇదే ఫీల్డ్ల సంఖ్యకు అనులోమానుపాతంలో:
SELECT
((
SELECT
t
FROM
task t
WHERE
owner_id = 1
ORDER BY
task_date, id
LIMIT 1
).*);
Result (cost=4.77..4.78 rows=1 width=16) (actual time=0.063..0.063 rows=1 loops=1)
Buffers: shared hit=16
InitPlan 1 (returns $0)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.031..0.032 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t (cost=0.42..387.57 rows=500 width=48) (actual time=0.030..0.030 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4
InitPlan 2 (returns $1)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.008..0.009 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t_1 (cost=0.42..387.57 rows=500 width=48) (actual time=0.008..0.008 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4
InitPlan 3 (returns $2)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.008..0.008 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t_2 (cost=0.42..387.57 rows=500 width=48) (actual time=0.008..0.008 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4"
InitPlan 4 (returns $3)
-> Limit (cost=0.42..1.19 rows=1 width=48) (actual time=0.009..0.009 rows=1 loops=1)
Buffers: shared hit=4
-> Index Scan using task_owner_id_task_date_id_idx on task t_3 (cost=0.42..387.57 rows=500 width=48) (actual time=0.009..0.009 rows=1 loops=1)
Index Cond: (owner_id = 1)
Buffers: shared hit=4
అదే రికార్డ్ 4 సార్లు "చూడబడింది"... PostgreSQL 11 వరకు, ఈ ప్రవర్తన క్రమం తప్పకుండా జరుగుతుంది మరియు దీనికి పరిష్కారం CTEలో "రాప్" చేయడం, ఇది ఈ సంస్కరణల్లోని ఆప్టిమైజర్కు సంపూర్ణ పరిమితి.
రికర్సివ్ అక్యుమ్యులేటర్
మునుపటి సంస్కరణలో, మొత్తంగా మేము చదువుతాము 200 లైన్లు అవసరమైన 20 కొరకు. 960 కాదు, ఇంకా తక్కువ - ఇది సాధ్యమేనా?
మనకు అవసరమైన జ్ఞానాన్ని ఉపయోగించుకోవడానికి ప్రయత్నిద్దాం మొత్తం 20 రికార్డులు. అంటే, మనకు అవసరమైన మొత్తాన్ని చేరే వరకు మాత్రమే మేము డేటా రీడింగ్ను పునరావృతం చేస్తాము.
దశ 1: ప్రారంభ జాబితా
సహజంగానే, మా 20 రికార్డ్ల “టార్గెట్” జాబితా మా owner_id కీలలో ఒకదాని కోసం “మొదటి” రికార్డ్లతో ప్రారంభం కావాలి. అందువల్ల, మొదట మనం అలాంటి వాటిని కనుగొంటాము ప్రతి కీలకు "వెరీ ఫస్ట్" మరియు దానిని జాబితాకు జోడించి, మనకు కావలసిన క్రమంలో క్రమబద్ధీకరించండి - (task_date, id).
దశ 2: "తదుపరి" ఎంట్రీలను కనుగొనండి
ఇప్పుడు మన జాబితా నుండి మొదటి ఎంట్రీని తీసుకొని ప్రారంభిస్తే ఇండెక్స్తో పాటు "అడుగు" owner_id కీని భద్రపరుస్తుంది, ఆపై కనుగొనబడిన అన్ని రికార్డ్లు ఫలిత ఎంపికలో ఖచ్చితంగా తదుపరివి. వాస్తవానికి, మాత్రమే మేము బట్ కీని దాటే వరకు జాబితాలో రెండవ ప్రవేశం.
మేము రెండవ రికార్డును "క్రాస్ చేసాము" అని తేలితే, అప్పుడు మొదటిదానికి బదులుగా చివరిగా చదివిన నమోదు జాబితాకు జోడించబడాలి (అదే యజమాని_ఐడితో), దాని తర్వాత మేము జాబితాను మళ్లీ క్రమబద్ధీకరిస్తాము.
అంటే, జాబితాలో ప్రతి కీలకు ఒకటి కంటే ఎక్కువ ఎంట్రీలు లేవని మేము ఎల్లప్పుడూ పొందుతాము (ఎంట్రీలు అయిపోతే మరియు మనం “క్రాస్” చేయకపోతే, జాబితా నుండి మొదటి ఎంట్రీ అదృశ్యమవుతుంది మరియు ఏమీ జోడించబడదు. ), మరియు వారు ఎల్లప్పుడూ క్రమబద్ధీకరించబడింది అప్లికేషన్ కీ యొక్క ఆరోహణ క్రమంలో (task_date, id).
దశ 3: రికార్డులను ఫిల్టర్ చేయండి మరియు "విస్తరించండి"
మా పునరావృత ఎంపిక యొక్క కొన్ని వరుసలలో, కొన్ని రికార్డులు rv
డూప్లికేట్ చేయబడ్డాయి - ముందుగా మనం "జాబితా యొక్క 2వ ఎంట్రీ యొక్క సరిహద్దును దాటడం" వంటి వాటిని కనుగొంటాము, ఆపై దానిని జాబితా నుండి 1వ స్థానంలో ఉంచుతాము. కాబట్టి మొదటి సంఘటనను ఫిల్టర్ చేయాలి.
భయంకరమైన చివరి ప్రశ్న
WITH RECURSIVE T AS (
-- #1 : заносим в список "первые" записи по каждому из ключей набора
WITH wrap AS ( -- "материализуем" record'ы, чтобы обращение к полям не вызывало умножения InitPlan/SubPlan
WITH T AS (
SELECT
(
SELECT
r
FROM
task r
WHERE
owner_id = unnest
ORDER BY
task_date, id
LIMIT 1
) r
FROM
unnest('{1,2,4,8,16,32,64,128,256,512}'::integer[])
)
SELECT
array_agg(r ORDER BY (r).task_date, (r).id) list -- сортируем список в нужном порядке
FROM
T
)
SELECT
list
, list[1] rv
, FALSE not_cross
, 0 size
FROM
wrap
UNION ALL
-- #2 : вычитываем записи 1-го по порядку ключа, пока не перешагнем через запись 2-го
SELECT
CASE
-- если ничего не найдено для ключа 1-й записи
WHEN X._r IS NOT DISTINCT FROM NULL THEN
T.list[2:] -- убираем ее из списка
-- если мы НЕ пересекли прикладной ключ 2-й записи
WHEN X.not_cross THEN
T.list -- просто протягиваем тот же список без модификаций
-- если в списке уже нет 2-й записи
WHEN T.list[2] IS NULL THEN
-- просто возвращаем пустой список
'{}'
-- пересортировываем словарь, убирая 1-ю запись и добавляя последнюю из найденных
ELSE (
SELECT
coalesce(T.list[2] || array_agg(r ORDER BY (r).task_date, (r).id), '{}')
FROM
unnest(T.list[3:] || X._r) r
)
END
, X._r
, X.not_cross
, T.size + X.not_cross::integer
FROM
T
, LATERAL(
WITH wrap AS ( -- "материализуем" record
SELECT
CASE
-- если все-таки "перешагнули" через 2-ю запись
WHEN NOT T.not_cross
-- то нужная запись - первая из спписка
THEN T.list[1]
ELSE ( -- если не пересекли, то ключ остался как в предыдущей записи - отталкиваемся от нее
SELECT
_r
FROM
task _r
WHERE
owner_id = (rv).owner_id AND
(task_date, id) > ((rv).task_date, (rv).id)
ORDER BY
task_date, id
LIMIT 1
)
END _r
)
SELECT
_r
, CASE
-- если 2-й записи уже нет в списке, но мы хоть что-то нашли
WHEN list[2] IS NULL AND _r IS DISTINCT FROM NULL THEN
TRUE
ELSE -- ничего не нашли или "перешагнули"
coalesce(((_r).task_date, (_r).id) < ((list[2]).task_date, (list[2]).id), FALSE)
END not_cross
FROM
wrap
) X
WHERE
T.size < 20 AND -- ограничиваем тут количество
T.list IS DISTINCT FROM '{}' -- или пока список не кончился
)
-- #3 : "разворачиваем" записи - порядок гарантирован по построению
SELECT
(rv).*
FROM
T
WHERE
not_cross; -- берем только "непересекающие" записи
అందువలన, మేము 50% అమలు సమయంలో 20% డేటా రీడ్లను వర్తకం చేసింది. అంటే, చదవడానికి ఎక్కువ సమయం పట్టవచ్చని మీరు నమ్మడానికి కారణాలు ఉంటే (ఉదాహరణకు, డేటా తరచుగా కాష్లో ఉండదు మరియు దాని కోసం మీరు డిస్క్కి వెళ్లాలి), అప్పుడు ఈ విధంగా మీరు చదవడంపై తక్కువ ఆధారపడవచ్చు. .
ఏదైనా సందర్భంలో, "అమాయక" మొదటి ఎంపిక కంటే అమలు సమయం మెరుగ్గా మారింది. అయితే ఈ 3 ఆప్షన్లలో ఏది ఉపయోగించాలో మీ ఇష్టం.
మూలం: www.habr.com