SQL HowTo: skrive en while-løkke direkte i spørringen, eller "Elementær tre-trinns"

Med jevne mellomrom oppstår oppgaven med å søke etter relaterte data ved hjelp av et sett med nøkler. til vi får det nødvendige totale antallet poster.

Det mest "virkelige" eksemplet er å vise 20 eldste problemer, oppført på listen over ansatte (for eksempel innenfor én divisjon). For ulike ledelses-"dashboards" med korte oppsummeringer av arbeidsområder, kreves et lignende emne ganske ofte.

SQL HowTo: skrive en while-løkke direkte i spørringen, eller "Elementær tre-trinns"

I denne artikkelen skal vi se på implementeringen i PostgreSQL av en "naiv" løsning på et slikt problem, en "smartere" og veldig kompleks algoritme "løkke" i SQL med en utgangsbetingelse fra de funnet data, som kan være nyttig både for generell utvikling og til bruk i andre lignende tilfeller.

La oss ta et testdatasett fra forrige artikkel. For å forhindre at de viste postene "hopper" fra tid til annen når de sorterte verdiene sammenfaller, utvide emneindeksen ved å legge til en primærnøkkel. Samtidig vil dette umiddelbart gi den unikhet og garantere oss at sorteringsrekkefølgen er entydig:

CREATE INDEX ON task(owner_id, task_date, id);
-- а старый - удалим
DROP INDEX task_owner_id_task_date_idx;

Som det er hørt, slik er det skrevet

Først, la oss skissere den enkleste versjonen av forespørselen ved å sende ID-ene til utøverne array som inngangsparameter:

SELECT
  *
FROM
  task
WHERE
  owner_id = ANY('{1,2,4,8,16,32,64,128,256,512}'::integer[])
ORDER BY
  task_date, id
LIMIT 20;

SQL HowTo: skrive en while-løkke direkte i spørringen, eller "Elementær tre-trinns"
[se på explain.tensor.ru]

Litt trist – vi bestilte bare 20 plater, men Index Scan returnerte den til oss 960 linjer, som da også måtte sorteres... La oss prøve å lese mindre.

unnest + ARRAY

Det første hensynet som vil hjelpe oss er om vi trenger det kun 20 sortert poster, så er det bare å lese ikke mer enn 20 sortert i samme rekkefølge for hver nøkkel. Flink, passende indeks (owner_id, task_date, id) vi har.

La oss bruke den samme mekanismen for å trekke ut og "spredning i kolonner" integrert tabellpost, som i siste artikkel. Vi kan også bruke folding til en matrise ved å bruke funksjonen ARRAY():

WITH T AS (
  SELECT
    unnest(ARRAY(
      SELECT
        t
      FROM
        task t
      WHERE
        owner_id = unnest
      ORDER BY
        task_date, id
      LIMIT 20 -- ограничиваем тут...
    )) r
  FROM
    unnest('{1,2,4,8,16,32,64,128,256,512}'::integer[])
)
SELECT
  (r).*
FROM
  T
ORDER BY
  (r).task_date, (r).id
LIMIT 20; -- ... и тут - тоже

SQL HowTo: skrive en while-løkke direkte i spørringen, eller "Elementær tre-trinns"
[se på explain.tensor.ru]

Å, mye bedre allerede! 40 % raskere og 4.5 ganger mindre data Jeg måtte lese den.

Materialisering av tabellposter via CTELa meg gjøre deg oppmerksom på det faktum i noen tilfeller Et forsøk på å umiddelbart arbeide med feltene til en post etter å ha søkt etter den i en underspørring, uten å "pakke" den inn i en CTE, kan føre til "multipliser" InitPlan proporsjonalt med antallet av de samme feltene:

SELECT
  ((
    SELECT
      t
    FROM
      task t
    WHERE
      owner_id = 1
    ORDER BY
      task_date, id
    LIMIT 1
  ).*);

Result  (cost=4.77..4.78 rows=1 width=16) (actual time=0.063..0.063 rows=1 loops=1)
  Buffers: shared hit=16
  InitPlan 1 (returns $0)
    ->  Limit  (cost=0.42..1.19 rows=1 width=48) (actual time=0.031..0.032 rows=1 loops=1)
          Buffers: shared hit=4
          ->  Index Scan using task_owner_id_task_date_id_idx on task t  (cost=0.42..387.57 rows=500 width=48) (actual time=0.030..0.030 rows=1 loops=1)
                Index Cond: (owner_id = 1)
                Buffers: shared hit=4
  InitPlan 2 (returns $1)
    ->  Limit  (cost=0.42..1.19 rows=1 width=48) (actual time=0.008..0.009 rows=1 loops=1)
          Buffers: shared hit=4
          ->  Index Scan using task_owner_id_task_date_id_idx on task t_1  (cost=0.42..387.57 rows=500 width=48) (actual time=0.008..0.008 rows=1 loops=1)
                Index Cond: (owner_id = 1)
                Buffers: shared hit=4
  InitPlan 3 (returns $2)
    ->  Limit  (cost=0.42..1.19 rows=1 width=48) (actual time=0.008..0.008 rows=1 loops=1)
          Buffers: shared hit=4
          ->  Index Scan using task_owner_id_task_date_id_idx on task t_2  (cost=0.42..387.57 rows=500 width=48) (actual time=0.008..0.008 rows=1 loops=1)
                Index Cond: (owner_id = 1)
                Buffers: shared hit=4"
  InitPlan 4 (returns $3)
    ->  Limit  (cost=0.42..1.19 rows=1 width=48) (actual time=0.009..0.009 rows=1 loops=1)
          Buffers: shared hit=4
          ->  Index Scan using task_owner_id_task_date_id_idx on task t_3  (cost=0.42..387.57 rows=500 width=48) (actual time=0.009..0.009 rows=1 loops=1)
                Index Cond: (owner_id = 1)
                Buffers: shared hit=4

Den samme posten ble "slått opp" 4 ganger... Frem til PostgreSQL 11 forekommer denne oppførselen regelmessig, og løsningen er å "pakke" den inn i en CTE, som er en absolutt grense for optimizeren i disse versjonene.

Rekursiv akkumulator

I forrige versjon leste vi totalt 200 linjer av hensyn til de nødvendige 20. Ikke 960, men enda mindre - er det mulig?

La oss prøve å bruke kunnskapen vi trenger totalt 20 poster. Det vil si at vi kun vil iterere dataavlesning til vi når den mengden vi trenger.

Trinn 1: Startliste

Det er klart at vår "mål"-liste med 20 poster bør starte med de "første" postene for en av våre eier_id-nøkler. Derfor vil vi først finne slike "aller først" for hver av tastene og legg den til listen, sorter den i den rekkefølgen vi ønsker - (oppgavedato, id).

SQL HowTo: skrive en while-løkke direkte i spørringen, eller "Elementær tre-trinns"

Trinn 2: Finn de "neste" oppføringene

Nå hvis vi tar den første oppføringen fra listen vår og starter "trinn" videre langs indeksen bevare eier_id-nøkkelen, så er alle postene som ble funnet nøyaktig de neste i det resulterende utvalget. Selvfølgelig bare til vi krysser baknøkkelen andre oppføring på listen.

Hvis det viser seg at vi "krysset" den andre rekorden, da den siste oppføringen som ble lest bør legges til listen i stedet for den første (med samme eier_id), hvoretter vi sorterer listen på nytt.

SQL HowTo: skrive en while-løkke direkte i spørringen, eller "Elementær tre-trinns"

Det vil si at vi alltid får at listen ikke har mer enn én oppføring for hver av tastene (hvis oppføringene går tom og vi ikke "krysser", vil den første oppføringen fra listen ganske enkelt forsvinne og ingenting vil bli lagt til ), og de alltid sortert i stigende rekkefølge av applikasjonsnøkkelen (oppgavedato, id).

SQL HowTo: skrive en while-løkke direkte i spørringen, eller "Elementær tre-trinns"

Trinn 3: filtrer og "utvid" poster

I noen av radene i vårt rekursive utvalg, noen poster rv er duplisert - først finner vi for eksempel "krysser grensen til den andre oppføringen på listen", og erstatter den som den første fra listen. Så den første forekomsten må filtreres.

Det fryktede siste spørsmålet

WITH RECURSIVE T AS (
  -- #1 : заносим в список "первые" записи по каждому из ключей набора
  WITH wrap AS ( -- "материализуем" record'ы, чтобы обращение к полям не вызывало умножения InitPlan/SubPlan
    WITH T AS (
      SELECT
        (
          SELECT
            r
          FROM
            task r
          WHERE
            owner_id = unnest
          ORDER BY
            task_date, id
          LIMIT 1
        ) r
      FROM
        unnest('{1,2,4,8,16,32,64,128,256,512}'::integer[])
    )
    SELECT
      array_agg(r ORDER BY (r).task_date, (r).id) list -- сортируем список в нужном порядке
    FROM
      T
  )
  SELECT
    list
  , list[1] rv
  , FALSE not_cross
  , 0 size
  FROM
    wrap
UNION ALL
  -- #2 : вычитываем записи 1-го по порядку ключа, пока не перешагнем через запись 2-го
  SELECT
    CASE
      -- если ничего не найдено для ключа 1-й записи
      WHEN X._r IS NOT DISTINCT FROM NULL THEN
        T.list[2:] -- убираем ее из списка
      -- если мы НЕ пересекли прикладной ключ 2-й записи
      WHEN X.not_cross THEN
        T.list -- просто протягиваем тот же список без модификаций
      -- если в списке уже нет 2-й записи
      WHEN T.list[2] IS NULL THEN
        -- просто возвращаем пустой список
        '{}'
      -- пересортировываем словарь, убирая 1-ю запись и добавляя последнюю из найденных
      ELSE (
        SELECT
          coalesce(T.list[2] || array_agg(r ORDER BY (r).task_date, (r).id), '{}')
        FROM
          unnest(T.list[3:] || X._r) r
      )
    END
  , X._r
  , X.not_cross
  , T.size + X.not_cross::integer
  FROM
    T
  , LATERAL(
      WITH wrap AS ( -- "материализуем" record
        SELECT
          CASE
            -- если все-таки "перешагнули" через 2-ю запись
            WHEN NOT T.not_cross
              -- то нужная запись - первая из спписка
              THEN T.list[1]
            ELSE ( -- если не пересекли, то ключ остался как в предыдущей записи - отталкиваемся от нее
              SELECT
                _r
              FROM
                task _r
              WHERE
                owner_id = (rv).owner_id AND
                (task_date, id) > ((rv).task_date, (rv).id)
              ORDER BY
                task_date, id
              LIMIT 1
            )
          END _r
      )
      SELECT
        _r
      , CASE
          -- если 2-й записи уже нет в списке, но мы хоть что-то нашли
          WHEN list[2] IS NULL AND _r IS DISTINCT FROM NULL THEN
            TRUE
          ELSE -- ничего не нашли или "перешагнули"
            coalesce(((_r).task_date, (_r).id) < ((list[2]).task_date, (list[2]).id), FALSE)
        END not_cross
      FROM
        wrap
    ) X
  WHERE
    T.size < 20 AND -- ограничиваем тут количество
    T.list IS DISTINCT FROM '{}' -- или пока список не кончился
)
-- #3 : "разворачиваем" записи - порядок гарантирован по построению
SELECT
  (rv).*
FROM
  T
WHERE
  not_cross; -- берем только "непересекающие" записи

SQL HowTo: skrive en while-løkke direkte i spørringen, eller "Elementær tre-trinns"
[se på explain.tensor.ru]

Altså vi handlet 50 % av dataene i 20 % av utførelsestiden. Det vil si at hvis du har grunner til å tro at lesing kan ta lang tid (for eksempel er dataene ofte ikke i cachen, og du må gå til disk for det), så kan du på denne måten stole mindre på lesing .

I alle fall viste utførelsestiden seg å være bedre enn i det "naive" første alternativet. Men hvilken av disse 3 alternativene du skal bruke er opp til deg.

Kilde: www.habr.com

Legg til en kommentar