SQL HowTo: scrivi un ciclo while direttamente nella query o "Elementary three-way"

Periodicamente si presenta il compito di cercare dati correlati tramite una serie di chiavi, finché non otteniamo il numero totale di record richiesto.

L'esempio più "realistico" è visualizzare 20 problemi più antichi, elencato nell'elenco dei dipendenti (ad esempio, all'interno dello stesso dipartimento). Per vari "cruscotti" gestionali con brevi riassunti delle aree di lavoro, un argomento simile è richiesto abbastanza spesso.

SQL HowTo: scrivi un ciclo while direttamente nella query o "Elementary three-way"

Nell'articolo considereremo l'implementazione su PostgreSQL di una versione "ingenua" della risoluzione di un problema del genere, un algoritmo "più intelligente" e molto complesso "loop" in SQL con una condizione di uscita dai dati trovati, che può essere utile sia per uno sviluppo generale che per l'utilizzo in altri casi simili.

Prendiamo un set di dati di prova da articolo precedente. In modo che i record di output non “saltino” di volta in volta quando i valori ordinati corrispondono, estendere l'indice degli argomenti aggiungendo una chiave primaria. Allo stesso tempo, questo gli conferirà immediatamente unicità e ci garantirà l'unicità dell'ordinamento:

CREATE INDEX ON task(owner_id, task_date, id);
-- а старый - удалим
DROP INDEX task_owner_id_task_date_idx;

Come si sente, così si scrive

Innanzitutto, abbozziamo la versione più semplice della richiesta, passando gli ID degli artisti array come input:

SELECT
  *
FROM
  task
WHERE
  owner_id = ANY('{1,2,4,8,16,32,64,128,256,512}'::integer[])
ORDER BY
  task_date, id
LIMIT 20;

SQL HowTo: scrivi un ciclo while direttamente nella query o "Elementary three-way"
[Guarda spiegare.tensor.ru]

Un po' triste: abbiamo ordinato solo 20 dischi e Index Scan ce li ha restituiti termine 960, che poi andava anche ordinato... E proviamo a leggere di meno.

unnest + ARRAY

La prima considerazione che ci aiuterà, se ne avremo bisogno totale 20 ordinati record, è sufficiente leggere non più di 20 ordinati nello stesso ordine per ciascuno chiave. Bene, indice adatto (owner_id, task_date, id) abbiamo.

Usiamo lo stesso meccanismo di estrazione e "trasformazione in colonne" voce di tabella integrale, come in ultimo articolo. E applica anche la convoluzione a un array usando la funzione ARRAY():

WITH T AS (
  SELECT
    unnest(ARRAY(
      SELECT
        t
      FROM
        task t
      WHERE
        owner_id = unnest
      ORDER BY
        task_date, id
      LIMIT 20 -- ограничиваем тут...
    )) r
  FROM
    unnest('{1,2,4,8,16,32,64,128,256,512}'::integer[])
)
SELECT
  (r).*
FROM
  T
ORDER BY
  (r).task_date, (r).id
LIMIT 20; -- ... и тут - тоже

SQL HowTo: scrivi un ciclo while direttamente nella query o "Elementary three-way"
[Guarda spiegare.tensor.ru]

Oh, è già molto meglio! 40% più veloce e 4.5 volte meno dati dovevo leggere.

Materializzazione dei record della tabella tramite CTELo noterò in alcuni casi un tentativo di lavorare immediatamente con i campi del record dopo averlo cercato in una sottoquery, senza “raggiungerlo” in una CTE, può portare a "moltiplicazione" InitPlan proporzionale al numero di questi stessi campi:

SELECT
  ((
    SELECT
      t
    FROM
      task t
    WHERE
      owner_id = 1
    ORDER BY
      task_date, id
    LIMIT 1
  ).*);

Result  (cost=4.77..4.78 rows=1 width=16) (actual time=0.063..0.063 rows=1 loops=1)
  Buffers: shared hit=16
  InitPlan 1 (returns $0)
    ->  Limit  (cost=0.42..1.19 rows=1 width=48) (actual time=0.031..0.032 rows=1 loops=1)
          Buffers: shared hit=4
          ->  Index Scan using task_owner_id_task_date_id_idx on task t  (cost=0.42..387.57 rows=500 width=48) (actual time=0.030..0.030 rows=1 loops=1)
                Index Cond: (owner_id = 1)
                Buffers: shared hit=4
  InitPlan 2 (returns $1)
    ->  Limit  (cost=0.42..1.19 rows=1 width=48) (actual time=0.008..0.009 rows=1 loops=1)
          Buffers: shared hit=4
          ->  Index Scan using task_owner_id_task_date_id_idx on task t_1  (cost=0.42..387.57 rows=500 width=48) (actual time=0.008..0.008 rows=1 loops=1)
                Index Cond: (owner_id = 1)
                Buffers: shared hit=4
  InitPlan 3 (returns $2)
    ->  Limit  (cost=0.42..1.19 rows=1 width=48) (actual time=0.008..0.008 rows=1 loops=1)
          Buffers: shared hit=4
          ->  Index Scan using task_owner_id_task_date_id_idx on task t_2  (cost=0.42..387.57 rows=500 width=48) (actual time=0.008..0.008 rows=1 loops=1)
                Index Cond: (owner_id = 1)
                Buffers: shared hit=4"
  InitPlan 4 (returns $3)
    ->  Limit  (cost=0.42..1.19 rows=1 width=48) (actual time=0.009..0.009 rows=1 loops=1)
          Buffers: shared hit=4
          ->  Index Scan using task_owner_id_task_date_id_idx on task t_3  (cost=0.42..387.57 rows=500 width=48) (actual time=0.009..0.009 rows=1 loops=1)
                Index Cond: (owner_id = 1)
                Buffers: shared hit=4

Lo stesso record è stato “cercato” 4 volte… Fino a PostgreSQL 11, questo comportamento si verifica regolarmente e la soluzione è “racchiudere” in un CTE, che è un limite incondizionato per l’ottimizzatore in queste versioni.

accumulatore ricorsivo

Nella versione precedente, in totale, leggiamo termine 200 per il bene dei 20 necessari. Già non 960, ma anche meno - è possibile?

Proviamo a utilizzare la conoscenza di cui abbiamo bisogno xnumx totale record. Cioè, ripeteremo la sottrazione dei dati solo finché non verrà raggiunta la quantità di cui abbiamo bisogno.

Passaggio 1: elenco di partenza

Ovviamente, il nostro elenco "destinazione" di 20 voci dovrebbe iniziare con le "prime" voci per una delle nostre chiaviowner_id. Pertanto, per prima cosa troviamo tale "primo" per ciascuna delle chiavi e inseriscilo nell'elenco, ordinandolo nell'ordine che vogliamo: (task_date, id).

SQL HowTo: scrivi un ciclo while direttamente nella query o "Elementary three-way"

Passaggio 2: trova i record "successivi".

Ora se prendiamo la prima voce dal nostro elenco e iniziamo "passo" più in basso nell'indice salvando la chiave ID_proprietario, tutti i record trovati saranno solo quelli successivi nella selezione risultante. Naturalmente, solo finché non incrociamo la chiave applicata seconda voce nell'elenco.

Se si fosse scoperto che abbiamo "attraversato" la seconda voce, allora l'ultima voce letta dovrebbe essere aggiunta all'elenco anziché la prima (con lo stesso proprietario_id), dopodiché l'elenco viene nuovamente ordinato.

SQL HowTo: scrivi un ciclo while direttamente nella query o "Elementary three-way"

Cioè, otteniamo sempre che l'elenco non abbia più di una voce per ciascuna chiave (se le voci sono finite e non abbiamo "incrociato", la prima voce semplicemente scomparirà dall'elenco e non verrà aggiunto nulla ), e loro sempre ordinato in ordine crescente della chiave dell'applicazione (task_date, id).

SQL HowTo: scrivi un ciclo while direttamente nella query o "Elementary three-way"

Passaggio 3: filtraggio ed espansione dei record

Nella parte delle righe della nostra selezione ricorsiva, alcuni record rv sono duplicati: prima troviamo come "attraversare il confine della 2a voce dell'elenco", quindi lo sostituiamo con il 1o dell'elenco. E quindi la prima occorrenza dovrebbe essere filtrata.

Domanda finale terribile

WITH RECURSIVE T AS (
  -- #1 : заносим в список "первые" записи по каждому из ключей набора
  WITH wrap AS ( -- "материализуем" record'ы, чтобы обращение к полям не вызывало умножения InitPlan/SubPlan
    WITH T AS (
      SELECT
        (
          SELECT
            r
          FROM
            task r
          WHERE
            owner_id = unnest
          ORDER BY
            task_date, id
          LIMIT 1
        ) r
      FROM
        unnest('{1,2,4,8,16,32,64,128,256,512}'::integer[])
    )
    SELECT
      array_agg(r ORDER BY (r).task_date, (r).id) list -- сортируем список в нужном порядке
    FROM
      T
  )
  SELECT
    list
  , list[1] rv
  , FALSE not_cross
  , 0 size
  FROM
    wrap
UNION ALL
  -- #2 : вычитываем записи 1-го по порядку ключа, пока не перешагнем через запись 2-го
  SELECT
    CASE
      -- если ничего не найдено для ключа 1-й записи
      WHEN X._r IS NOT DISTINCT FROM NULL THEN
        T.list[2:] -- убираем ее из списка
      -- если мы НЕ пересекли прикладной ключ 2-й записи
      WHEN X.not_cross THEN
        T.list -- просто протягиваем тот же список без модификаций
      -- если в списке уже нет 2-й записи
      WHEN T.list[2] IS NULL THEN
        -- просто возвращаем пустой список
        '{}'
      -- пересортировываем словарь, убирая 1-ю запись и добавляя последнюю из найденных
      ELSE (
        SELECT
          coalesce(T.list[2] || array_agg(r ORDER BY (r).task_date, (r).id), '{}')
        FROM
          unnest(T.list[3:] || X._r) r
      )
    END
  , X._r
  , X.not_cross
  , T.size + X.not_cross::integer
  FROM
    T
  , LATERAL(
      WITH wrap AS ( -- "материализуем" record
        SELECT
          CASE
            -- если все-таки "перешагнули" через 2-ю запись
            WHEN NOT T.not_cross
              -- то нужная запись - первая из спписка
              THEN T.list[1]
            ELSE ( -- если не пересекли, то ключ остался как в предыдущей записи - отталкиваемся от нее
              SELECT
                _r
              FROM
                task _r
              WHERE
                owner_id = (rv).owner_id AND
                (task_date, id) > ((rv).task_date, (rv).id)
              ORDER BY
                task_date, id
              LIMIT 1
            )
          END _r
      )
      SELECT
        _r
      , CASE
          -- если 2-й записи уже нет в списке, но мы хоть что-то нашли
          WHEN list[2] IS NULL AND _r IS DISTINCT FROM NULL THEN
            TRUE
          ELSE -- ничего не нашли или "перешагнули"
            coalesce(((_r).task_date, (_r).id) < ((list[2]).task_date, (list[2]).id), FALSE)
        END not_cross
      FROM
        wrap
    ) X
  WHERE
    T.size < 20 AND -- ограничиваем тут количество
    T.list IS DISTINCT FROM '{}' -- или пока список не кончился
)
-- #3 : "разворачиваем" записи - порядок гарантирован по построению
SELECT
  (rv).*
FROM
  T
WHERE
  not_cross; -- берем только "непересекающие" записи

SQL HowTo: scrivi un ciclo while direttamente nella query o "Elementary three-way"
[Guarda spiegare.tensor.ru]

Quindi noi scambiato il 50% di letture di dati per un tempo di esecuzione del 20%.. Cioè, se hai motivo di credere che la lettura possa essere lunga (ad esempio, i dati spesso non sono nella cache e devi andare su disco per ottenerli), allora in questo modo puoi contare sulla lettura di meno.

In ogni caso, il tempo di esecuzione si è rivelato migliore rispetto alla prima opzione "ingenua". Ma quale di queste 3 opzioni utilizzare dipende da te.

Fonte: habr.com

Aggiungi un commento