SQL HowTo: escriviu un bucle while directament a la consulta, o "Elemental de tres vies"

Periòdicament, sorgeix la tasca de cercar dades relacionades mitjançant un conjunt de claus, fins que aconseguim el nombre total de registres necessari.

L'exemple més "realista" és mostrar 20 problemes més antics, enumerat a la llista d'empleats (per exemple, dins del mateix departament). Per a diversos "taulers de control" directius amb breus resums de les àrees de treball, es requereix un tema similar amb força freqüència.

SQL HowTo: escriviu un bucle while directament a la consulta, o "Elemental de tres vies"

En l'article, considerarem la implementació a PostgreSQL d'una versió "ingenu" per resoldre aquest problema, un algorisme "més intel·ligent" i molt complex. "bucle" en SQL amb una condició de sortida de les dades trobades, que pot ser útil tant per al desenvolupament general com per al seu ús en altres casos similars.

Agafem un conjunt de dades de prova article anterior. Perquè els registres de sortida no "saltin" de tant en tant quan coincideixen els valors ordenats, amplia l'índex de temes afegint una clau primària. Al mateix temps, això li donarà immediatament unicitat i ens garanteix la singularitat de l'ordre d'ordenació:

CREATE INDEX ON task(owner_id, task_date, id);
-- а старый - удалим
DROP INDEX task_owner_id_task_date_idx;

Tal com s'escolta, així s'escriu

Primer, esbossem la versió més senzilla de la sol·licitud, passant els identificadors dels intèrprets matriu com a entrada:

SELECT
  *
FROM
  task
WHERE
  owner_id = ANY('{1,2,4,8,16,32,64,128,256,512}'::integer[])
ORDER BY
  task_date, id
LIMIT 20;

SQL HowTo: escriviu un bucle while directament a la consulta, o "Elemental de tres vies"
[veure explica.tensor.ru]

Una mica trist: només vam demanar 20 registres i Index Scan ens va tornar 960 línies, que després també calia ordenar... I intentem llegir menys.

unnest + ARRAY

La primera consideració que ens ajudarà - si ho necessitem un total de 20 ordenats registres, n'hi ha prou amb llegir no més de 20 ordenats en el mateix ordre per a cadascun clau. Bé, índex adequat (owner_id, task_date, id) tenim.

Utilitzem el mateix mecanisme d'extracció i "convertir en columnes" entrada de taula integral, com a últim article. I també apliqueu la convolució a una matriu mitjançant la funció ARRAY():

WITH T AS (
  SELECT
    unnest(ARRAY(
      SELECT
        t
      FROM
        task t
      WHERE
        owner_id = unnest
      ORDER BY
        task_date, id
      LIMIT 20 -- ограничиваем тут...
    )) r
  FROM
    unnest('{1,2,4,8,16,32,64,128,256,512}'::integer[])
)
SELECT
  (r).*
FROM
  T
ORDER BY
  (r).task_date, (r).id
LIMIT 20; -- ... и тут - тоже

SQL HowTo: escriviu un bucle while directament a la consulta, o "Elemental de tres vies"
[veure explica.tensor.ru]

Oh, ja està molt millor! Un 40% més ràpid i 4.5 vegades menys dades havia de llegir.

Materialització de registres de taula via CTEHo notaré en alguns casos un intent de treballar immediatament amb els camps de registre després de cercar-lo en una subconsulta, sense "embolicar" en un CTE, pot provocar InitPlan de "multiplicació". proporcional al nombre d'aquests mateixos camps:

SELECT
  ((
    SELECT
      t
    FROM
      task t
    WHERE
      owner_id = 1
    ORDER BY
      task_date, id
    LIMIT 1
  ).*);

Result  (cost=4.77..4.78 rows=1 width=16) (actual time=0.063..0.063 rows=1 loops=1)
  Buffers: shared hit=16
  InitPlan 1 (returns $0)
    ->  Limit  (cost=0.42..1.19 rows=1 width=48) (actual time=0.031..0.032 rows=1 loops=1)
          Buffers: shared hit=4
          ->  Index Scan using task_owner_id_task_date_id_idx on task t  (cost=0.42..387.57 rows=500 width=48) (actual time=0.030..0.030 rows=1 loops=1)
                Index Cond: (owner_id = 1)
                Buffers: shared hit=4
  InitPlan 2 (returns $1)
    ->  Limit  (cost=0.42..1.19 rows=1 width=48) (actual time=0.008..0.009 rows=1 loops=1)
          Buffers: shared hit=4
          ->  Index Scan using task_owner_id_task_date_id_idx on task t_1  (cost=0.42..387.57 rows=500 width=48) (actual time=0.008..0.008 rows=1 loops=1)
                Index Cond: (owner_id = 1)
                Buffers: shared hit=4
  InitPlan 3 (returns $2)
    ->  Limit  (cost=0.42..1.19 rows=1 width=48) (actual time=0.008..0.008 rows=1 loops=1)
          Buffers: shared hit=4
          ->  Index Scan using task_owner_id_task_date_id_idx on task t_2  (cost=0.42..387.57 rows=500 width=48) (actual time=0.008..0.008 rows=1 loops=1)
                Index Cond: (owner_id = 1)
                Buffers: shared hit=4"
  InitPlan 4 (returns $3)
    ->  Limit  (cost=0.42..1.19 rows=1 width=48) (actual time=0.009..0.009 rows=1 loops=1)
          Buffers: shared hit=4
          ->  Index Scan using task_owner_id_task_date_id_idx on task t_3  (cost=0.42..387.57 rows=500 width=48) (actual time=0.009..0.009 rows=1 loops=1)
                Index Cond: (owner_id = 1)
                Buffers: shared hit=4

El mateix registre es va "cercar" 4 vegades... Fins a PostgreSQL 11, aquest comportament es produeix regularment, i la solució és "embolicar" en un CTE, que és un límit incondicional per a l'optimitzador en aquestes versions.

acumulador recursiu

A la versió anterior, en total, llegim 200 línies pel bé dels 20 necessaris. Ja no 960, però encara menys, és possible?

Intentem utilitzar els coneixements que necessitem en total 20 registres. És a dir, repetirem la resta de dades només fins que s'arribi a la quantitat que necessitem.

Pas 1: Llista d'inici

Òbviament, la nostra llista "objectiu" de 20 entrades hauria de començar amb les "primeres" entrades d'una de les nostres claus owner_id. Per tant, primer trobem tal "molt primer" per a cadascuna de les claus i posar-lo a la llista, ordenant-lo en l'ordre que volem - (task_date, id).

SQL HowTo: escriviu un bucle while directament a la consulta, o "Elemental de tres vies"

Pas 2: cerqueu els "següents" registres

Ara si agafem la primera entrada de la nostra llista i comencem "pas" més avall l'índex amb desar la clau d'ID_propietari, tots els registres trobats són només els següents a la selecció resultant. Per descomptat, només fins que creuem la clau aplicada segona entrada de la llista.

Si va resultar que vam "creuar" la segona entrada, aleshores l'última entrada llegida s'ha d'afegir a la llista en lloc de la primera (amb el mateix owner_id), després de la qual cosa la llista es torna a ordenar.

SQL HowTo: escriviu un bucle while directament a la consulta, o "Elemental de tres vies"

És a dir, sempre obtenim que la llista no té més d'una entrada per a cadascuna de les claus (si les entrades s'han acabat, i no hem "creuat", llavors la primera entrada simplement desapareixerà de la llista i no s'afegirà res. ), i ells sempre ordenats en ordre ascendent de la clau de l'aplicació (task_date, id).

SQL HowTo: escriviu un bucle while directament a la consulta, o "Elemental de tres vies"

Pas 3: filtrar i ampliar els registres

A la part de les files de la nostra selecció recursiva, alguns registres rv es dupliquen: primer trobem com ara "creuar la frontera de la segona entrada de la llista", i després substituïm com la primera de la llista. Per tant, s'ha de filtrar la primera aparició.

Terrible consulta final

WITH RECURSIVE T AS (
  -- #1 : заносим в список "первые" записи по каждому из ключей набора
  WITH wrap AS ( -- "материализуем" record'ы, чтобы обращение к полям не вызывало умножения InitPlan/SubPlan
    WITH T AS (
      SELECT
        (
          SELECT
            r
          FROM
            task r
          WHERE
            owner_id = unnest
          ORDER BY
            task_date, id
          LIMIT 1
        ) r
      FROM
        unnest('{1,2,4,8,16,32,64,128,256,512}'::integer[])
    )
    SELECT
      array_agg(r ORDER BY (r).task_date, (r).id) list -- сортируем список в нужном порядке
    FROM
      T
  )
  SELECT
    list
  , list[1] rv
  , FALSE not_cross
  , 0 size
  FROM
    wrap
UNION ALL
  -- #2 : вычитываем записи 1-го по порядку ключа, пока не перешагнем через запись 2-го
  SELECT
    CASE
      -- если ничего не найдено для ключа 1-й записи
      WHEN X._r IS NOT DISTINCT FROM NULL THEN
        T.list[2:] -- убираем ее из списка
      -- если мы НЕ пересекли прикладной ключ 2-й записи
      WHEN X.not_cross THEN
        T.list -- просто протягиваем тот же список без модификаций
      -- если в списке уже нет 2-й записи
      WHEN T.list[2] IS NULL THEN
        -- просто возвращаем пустой список
        '{}'
      -- пересортировываем словарь, убирая 1-ю запись и добавляя последнюю из найденных
      ELSE (
        SELECT
          coalesce(T.list[2] || array_agg(r ORDER BY (r).task_date, (r).id), '{}')
        FROM
          unnest(T.list[3:] || X._r) r
      )
    END
  , X._r
  , X.not_cross
  , T.size + X.not_cross::integer
  FROM
    T
  , LATERAL(
      WITH wrap AS ( -- "материализуем" record
        SELECT
          CASE
            -- если все-таки "перешагнули" через 2-ю запись
            WHEN NOT T.not_cross
              -- то нужная запись - первая из спписка
              THEN T.list[1]
            ELSE ( -- если не пересекли, то ключ остался как в предыдущей записи - отталкиваемся от нее
              SELECT
                _r
              FROM
                task _r
              WHERE
                owner_id = (rv).owner_id AND
                (task_date, id) > ((rv).task_date, (rv).id)
              ORDER BY
                task_date, id
              LIMIT 1
            )
          END _r
      )
      SELECT
        _r
      , CASE
          -- если 2-й записи уже нет в списке, но мы хоть что-то нашли
          WHEN list[2] IS NULL AND _r IS DISTINCT FROM NULL THEN
            TRUE
          ELSE -- ничего не нашли или "перешагнули"
            coalesce(((_r).task_date, (_r).id) < ((list[2]).task_date, (list[2]).id), FALSE)
        END not_cross
      FROM
        wrap
    ) X
  WHERE
    T.size < 20 AND -- ограничиваем тут количество
    T.list IS DISTINCT FROM '{}' -- или пока список не кончился
)
-- #3 : "разворачиваем" записи - порядок гарантирован по построению
SELECT
  (rv).*
FROM
  T
WHERE
  not_cross; -- берем только "непересекающие" записи

SQL HowTo: escriviu un bucle while directament a la consulta, o "Elemental de tres vies"
[veure explica.tensor.ru]

Així, nosaltres va negociar un 50% de lectures de dades durant un 20% de temps d'execució. És a dir, si teniu motius per creure que la lectura pot ser llarga (per exemple, sovint les dades no es troben a la memòria cau i heu d'anar al disc per fer-ho), d'aquesta manera podreu dependre de llegir menys.

En qualsevol cas, el temps d'execució va resultar millor que en la primera opció "ingenu". Però quina d'aquestes 3 opcions utilitzar depèn de vostè.

Font: www.habr.com

Afegeix comentari