SQL HowTo: skriv en while-loop direkt i frågan, eller "Elementär trevägs"

Periodvis uppstår uppgiften att söka efter relaterad data med en uppsättning nycklar, tills vi får det nödvändiga totala antalet poster.

Det mest "verklighetstrogna" exemplet är att visa 20 äldsta problem, listade på listan över anställda (till exempel inom samma avdelning). För olika chefs-"dashboards" med korta sammanfattningar av arbetsområden krävs ganska ofta ett liknande ämne.

SQL HowTo: skriv en while-loop direkt i frågan, eller "Elementär trevägs"

I artikeln kommer vi att överväga implementeringen på PostgreSQL av en "naiv" version av att lösa ett sådant problem, en "smartare" och mycket komplex algoritm "loop" i SQL med ett utgångsvillkor från den hittade datan, vilket kan vara användbart både för allmän utveckling och för användning i andra liknande fall.

Låt oss ta en testdatauppsättning från föregående artikel. Så att utdataposterna inte "hoppar" då och då när de sorterade värdena matchar, utöka ämnesindexet genom att lägga till en primärnyckel. Samtidigt kommer detta omedelbart att ge den unikhet och garanterar oss unikheten i sorteringsordningen:

CREATE INDEX ON task(owner_id, task_date, id);
-- а старый - удалим
DROP INDEX task_owner_id_task_date_idx;

Som det hörs, så är det skrivet

Låt oss först skissa på den enklaste versionen av begäran och skicka ut artisternas ID array som ingång:

SELECT
  *
FROM
  task
WHERE
  owner_id = ANY('{1,2,4,8,16,32,64,128,256,512}'::integer[])
ORDER BY
  task_date, id
LIMIT 20;

SQL HowTo: skriv en while-loop direkt i frågan, eller "Elementär trevägs"
[titta på explain.tensor.ru]

Lite tråkigt - vi beställde bara 20 skivor och Index Scan returnerade oss 960 rader, som då också fick sorteras ... Och låt oss försöka läsa mindre.

unnest + ARRAY

Det första övervägandet som kommer att hjälpa oss - om vi behöver totalt 20 sorterade rekord, det räcker att läsa högst 20 sorterade i samma ordning för varje nyckel. Bra, lämpligt index (ägare_id, uppgift_datum, id) vi har.

Låt oss använda samma mekanism för att extrahera och "förvandla till kolumner" integrerad tabellpost, som i senaste artikeln. Och tillämpa även faltningen på en array med hjälp av funktionen ARRAY():

WITH T AS (
  SELECT
    unnest(ARRAY(
      SELECT
        t
      FROM
        task t
      WHERE
        owner_id = unnest
      ORDER BY
        task_date, id
      LIMIT 20 -- ограничиваем тут...
    )) r
  FROM
    unnest('{1,2,4,8,16,32,64,128,256,512}'::integer[])
)
SELECT
  (r).*
FROM
  T
ORDER BY
  (r).task_date, (r).id
LIMIT 20; -- ... и тут - тоже

SQL HowTo: skriv en while-loop direkt i frågan, eller "Elementär trevägs"
[titta på explain.tensor.ru]

Åh, det är redan mycket bättre! 40 % snabbare och 4.5 gånger mindre data var tvungen att läsa.

Materialisering av tabellposter via CTEJag kommer att notera det i vissa fall ett försök att omedelbart arbeta med postfälten efter att ha sökt efter det i en underfråga, utan att "inpacka" i en CTE, kan leda till "multiplicering" InitPlan proportionell mot antalet av samma fält:

SELECT
  ((
    SELECT
      t
    FROM
      task t
    WHERE
      owner_id = 1
    ORDER BY
      task_date, id
    LIMIT 1
  ).*);

Result  (cost=4.77..4.78 rows=1 width=16) (actual time=0.063..0.063 rows=1 loops=1)
  Buffers: shared hit=16
  InitPlan 1 (returns $0)
    ->  Limit  (cost=0.42..1.19 rows=1 width=48) (actual time=0.031..0.032 rows=1 loops=1)
          Buffers: shared hit=4
          ->  Index Scan using task_owner_id_task_date_id_idx on task t  (cost=0.42..387.57 rows=500 width=48) (actual time=0.030..0.030 rows=1 loops=1)
                Index Cond: (owner_id = 1)
                Buffers: shared hit=4
  InitPlan 2 (returns $1)
    ->  Limit  (cost=0.42..1.19 rows=1 width=48) (actual time=0.008..0.009 rows=1 loops=1)
          Buffers: shared hit=4
          ->  Index Scan using task_owner_id_task_date_id_idx on task t_1  (cost=0.42..387.57 rows=500 width=48) (actual time=0.008..0.008 rows=1 loops=1)
                Index Cond: (owner_id = 1)
                Buffers: shared hit=4
  InitPlan 3 (returns $2)
    ->  Limit  (cost=0.42..1.19 rows=1 width=48) (actual time=0.008..0.008 rows=1 loops=1)
          Buffers: shared hit=4
          ->  Index Scan using task_owner_id_task_date_id_idx on task t_2  (cost=0.42..387.57 rows=500 width=48) (actual time=0.008..0.008 rows=1 loops=1)
                Index Cond: (owner_id = 1)
                Buffers: shared hit=4"
  InitPlan 4 (returns $3)
    ->  Limit  (cost=0.42..1.19 rows=1 width=48) (actual time=0.009..0.009 rows=1 loops=1)
          Buffers: shared hit=4
          ->  Index Scan using task_owner_id_task_date_id_idx on task t_3  (cost=0.42..387.57 rows=500 width=48) (actual time=0.009..0.009 rows=1 loops=1)
                Index Cond: (owner_id = 1)
                Buffers: shared hit=4

Samma post "söktes" 4 gånger... Fram till PostgreSQL 11 inträffar detta beteende regelbundet, och lösningen är att "linda" i en CTE, vilket är en ovillkorlig gräns för optimeraren i dessa versioner.

rekursiv ackumulator

I den tidigare versionen läste vi totalt 200 rader för de nödvändiga 20:s skull. Redan inte 960, men ännu mindre - är det möjligt?

Låt oss försöka använda den kunskap vi behöver totalt 20 uppgifter. Det vill säga, vi upprepar datasubtraktionen endast tills den mängd vi behöver uppnås.

Steg 1: Startlista

Uppenbarligen bör vår "mål"-lista med 20 poster börja med de "första" posterna för en av våra owner_id-nycklar. Därför hittar vi först sådana "alldeles först" för var och en av nycklarna och placera den i listan, sortera den i den ordning vi vill ha - (task_date, id).

SQL HowTo: skriv en while-loop direkt i frågan, eller "Elementär trevägs"

Steg 2: hitta "nästa" poster

Om vi ​​nu tar den första posten från vår lista och börjar "steg" längre ner i indexet med att spara owner_id-nyckeln är alla hittade poster bara nästa i det resulterande urvalet. Naturligtvis bara tills vi korsar den tillämpade nyckeln andra posten i listan.

Om det visade sig att vi "korsade" den andra posten, då den senast lästa posten ska läggas till i listan istället för den första (med samma ägare_id), varefter listan sorteras igen.

SQL HowTo: skriv en while-loop direkt i frågan, eller "Elementär trevägs"

Det vill säga, vi får alltid att listan inte har mer än en post för var och en av nycklarna (om posterna är över och vi inte har "korsat", kommer den första posten helt enkelt att försvinna från listan och ingenting kommer att läggas till ), och de alltid sorterad i stigande ordning för applikationsnyckeln (task_date, id).

SQL HowTo: skriv en while-loop direkt i frågan, eller "Elementär trevägs"

Steg 3: Filtrera och expandera poster

I den del av raderna i vårt rekursiva urval, några poster rv är duplicerade - först hittar vi till exempel "korsar gränsen för den andra posten i listan", och sedan ersätter vi som den 2:a från listan. Och så den första förekomsten bör filtreras bort.

Fruktansvärd sista fråga

WITH RECURSIVE T AS (
  -- #1 : заносим в список "первые" записи по каждому из ключей набора
  WITH wrap AS ( -- "материализуем" record'ы, чтобы обращение к полям не вызывало умножения InitPlan/SubPlan
    WITH T AS (
      SELECT
        (
          SELECT
            r
          FROM
            task r
          WHERE
            owner_id = unnest
          ORDER BY
            task_date, id
          LIMIT 1
        ) r
      FROM
        unnest('{1,2,4,8,16,32,64,128,256,512}'::integer[])
    )
    SELECT
      array_agg(r ORDER BY (r).task_date, (r).id) list -- сортируем список в нужном порядке
    FROM
      T
  )
  SELECT
    list
  , list[1] rv
  , FALSE not_cross
  , 0 size
  FROM
    wrap
UNION ALL
  -- #2 : вычитываем записи 1-го по порядку ключа, пока не перешагнем через запись 2-го
  SELECT
    CASE
      -- если ничего не найдено для ключа 1-й записи
      WHEN X._r IS NOT DISTINCT FROM NULL THEN
        T.list[2:] -- убираем ее из списка
      -- если мы НЕ пересекли прикладной ключ 2-й записи
      WHEN X.not_cross THEN
        T.list -- просто протягиваем тот же список без модификаций
      -- если в списке уже нет 2-й записи
      WHEN T.list[2] IS NULL THEN
        -- просто возвращаем пустой список
        '{}'
      -- пересортировываем словарь, убирая 1-ю запись и добавляя последнюю из найденных
      ELSE (
        SELECT
          coalesce(T.list[2] || array_agg(r ORDER BY (r).task_date, (r).id), '{}')
        FROM
          unnest(T.list[3:] || X._r) r
      )
    END
  , X._r
  , X.not_cross
  , T.size + X.not_cross::integer
  FROM
    T
  , LATERAL(
      WITH wrap AS ( -- "материализуем" record
        SELECT
          CASE
            -- если все-таки "перешагнули" через 2-ю запись
            WHEN NOT T.not_cross
              -- то нужная запись - первая из спписка
              THEN T.list[1]
            ELSE ( -- если не пересекли, то ключ остался как в предыдущей записи - отталкиваемся от нее
              SELECT
                _r
              FROM
                task _r
              WHERE
                owner_id = (rv).owner_id AND
                (task_date, id) > ((rv).task_date, (rv).id)
              ORDER BY
                task_date, id
              LIMIT 1
            )
          END _r
      )
      SELECT
        _r
      , CASE
          -- если 2-й записи уже нет в списке, но мы хоть что-то нашли
          WHEN list[2] IS NULL AND _r IS DISTINCT FROM NULL THEN
            TRUE
          ELSE -- ничего не нашли или "перешагнули"
            coalesce(((_r).task_date, (_r).id) < ((list[2]).task_date, (list[2]).id), FALSE)
        END not_cross
      FROM
        wrap
    ) X
  WHERE
    T.size < 20 AND -- ограничиваем тут количество
    T.list IS DISTINCT FROM '{}' -- или пока список не кончился
)
-- #3 : "разворачиваем" записи - порядок гарантирован по построению
SELECT
  (rv).*
FROM
  T
WHERE
  not_cross; -- берем только "непересекающие" записи

SQL HowTo: skriv en while-loop direkt i frågan, eller "Elementär trevägs"
[titta på explain.tensor.ru]

Alltså vi handlade 50% data läser för 20% exekveringstid. Det vill säga, om du har anledning att tro att läsning kan vara lång (till exempel data finns ofta inte i cachen, och du måste gå till disk för det), så kan du på så sätt vara beroende av att läsa mindre.

Hur som helst blev avrättningstiden bättre än i det "naiva" första alternativet. Men vilket av dessa tre alternativ du ska använda är upp till dig.

Källa: will.com

Lägg en kommentar