SQL HowTo: zápis smyčky while přímo v dotazu nebo „Základní tři kroky“

Pravidelně vyvstává úkol vyhledávat související data pomocí sady klíčů. dokud nezískáme požadovaný celkový počet záznamů.

Nejvíce „skutečným“ příkladem je zobrazení 20 nejstarších problémů, uvedené na seznamu zaměstnanců (například v rámci jednoho oddílu). Pro různé manažerské „dashboardy“ se stručnými přehledy pracovních oblastí je podobné téma vyžadováno poměrně často.

SQL HowTo: zápis smyčky while přímo v dotazu nebo „Základní tři kroky“

V tomto článku se podíváme na implementaci „naivního“ řešení takového problému v PostgreSQL, „chytřejšího“ a velmi složitého algoritmu „loop“ v SQL s výstupní podmínkou z nalezených dat, což může být užitečné jak pro obecný vývoj, tak pro použití v jiných podobných případech.

Vezměme testovací soubor dat z předchozí článek. Abyste zabránili čas od času „přeskakování“ zobrazených záznamů, když se seřazené hodnoty shodují, rozšiřte rejstřík předmětu přidáním primárního klíče. Zároveň mu to okamžitě dodá jedinečnost a zaručí nám, že pořadí řazení je jednoznačné:

CREATE INDEX ON task(owner_id, task_date, id);
-- а старый - удалим
DROP INDEX task_owner_id_task_date_idx;

Jak se slyší, tak se píše

Nejprve si načrtneme nejjednodušší verzi žádosti a předáme ID účinkujících pole jako vstupní parametr:

SELECT
  *
FROM
  task
WHERE
  owner_id = ANY('{1,2,4,8,16,32,64,128,256,512}'::integer[])
ORDER BY
  task_date, id
LIMIT 20;

SQL HowTo: zápis smyčky while přímo v dotazu nebo „Základní tři kroky“
[podívejte se na explain.tensor.ru]

Trochu smutné - objednali jsme jen 20 desek, ale Index Scan nám to vrátil 960 řádků, které se pak také muselo třídit... Zkusme méně číst.

unnest + ARRAY

První úvaha, která nám pomůže, je, jestli potřebujeme pouze 20 seřazeno záznamy, pak stačí číst ne více než 20 seřazených ve stejném pořadí pro každého klíč. Dobrý, vhodný index (owner_id, task_date, id) máme.

Použijme stejný mechanismus pro extrakci a „rozložení do sloupců“ integrální záznam tabulky, jako v poslední článek. Můžeme také použít skládání do pole pomocí funkce ARRAY():

WITH T AS (
  SELECT
    unnest(ARRAY(
      SELECT
        t
      FROM
        task t
      WHERE
        owner_id = unnest
      ORDER BY
        task_date, id
      LIMIT 20 -- ограничиваем тут...
    )) r
  FROM
    unnest('{1,2,4,8,16,32,64,128,256,512}'::integer[])
)
SELECT
  (r).*
FROM
  T
ORDER BY
  (r).task_date, (r).id
LIMIT 20; -- ... и тут - тоже

SQL HowTo: zápis smyčky while přímo v dotazu nebo „Základní tři kroky“
[podívejte se na explain.tensor.ru]

Oh, už mnohem lepší! O 40 % rychlejší a 4.5krát méně dat Musel jsem si to přečíst.

Materializace tabulkových záznamů přes CTEDovolte mi, abych na to upozornil v některých případech Pokus o okamžitou práci s poli záznamu po jeho vyhledání v dílčím dotazu, aniž by byl „zabalen“ do CTE, může vést k "násobit" InitPlan úměrně počtu těchto stejných polí:

SELECT
  ((
    SELECT
      t
    FROM
      task t
    WHERE
      owner_id = 1
    ORDER BY
      task_date, id
    LIMIT 1
  ).*);

Result  (cost=4.77..4.78 rows=1 width=16) (actual time=0.063..0.063 rows=1 loops=1)
  Buffers: shared hit=16
  InitPlan 1 (returns $0)
    ->  Limit  (cost=0.42..1.19 rows=1 width=48) (actual time=0.031..0.032 rows=1 loops=1)
          Buffers: shared hit=4
          ->  Index Scan using task_owner_id_task_date_id_idx on task t  (cost=0.42..387.57 rows=500 width=48) (actual time=0.030..0.030 rows=1 loops=1)
                Index Cond: (owner_id = 1)
                Buffers: shared hit=4
  InitPlan 2 (returns $1)
    ->  Limit  (cost=0.42..1.19 rows=1 width=48) (actual time=0.008..0.009 rows=1 loops=1)
          Buffers: shared hit=4
          ->  Index Scan using task_owner_id_task_date_id_idx on task t_1  (cost=0.42..387.57 rows=500 width=48) (actual time=0.008..0.008 rows=1 loops=1)
                Index Cond: (owner_id = 1)
                Buffers: shared hit=4
  InitPlan 3 (returns $2)
    ->  Limit  (cost=0.42..1.19 rows=1 width=48) (actual time=0.008..0.008 rows=1 loops=1)
          Buffers: shared hit=4
          ->  Index Scan using task_owner_id_task_date_id_idx on task t_2  (cost=0.42..387.57 rows=500 width=48) (actual time=0.008..0.008 rows=1 loops=1)
                Index Cond: (owner_id = 1)
                Buffers: shared hit=4"
  InitPlan 4 (returns $3)
    ->  Limit  (cost=0.42..1.19 rows=1 width=48) (actual time=0.009..0.009 rows=1 loops=1)
          Buffers: shared hit=4
          ->  Index Scan using task_owner_id_task_date_id_idx on task t_3  (cost=0.42..387.57 rows=500 width=48) (actual time=0.009..0.009 rows=1 loops=1)
                Index Cond: (owner_id = 1)
                Buffers: shared hit=4

Stejný záznam byl „vyhledán“ 4x... Do PostgreSQL 11 se toto chování vyskytuje pravidelně a řešením je „zabalit“ jej do CTE, což je v těchto verzích pro optimalizátor absolutní limit.

Rekurzivní akumulátor

V předchozí verzi celkem čteme 200 řádků kvůli požadovaným 20. Ne 960, ale ještě méně - je to možné?

Zkusme využít znalosti, které potřebujeme celkový xnumx evidence. To znamená, že budeme opakovat čtení dat, dokud nedosáhneme množství, které potřebujeme.

Krok 1: Startovní listina

Je zřejmé, že náš „cílový“ seznam 20 záznamů by měl začínat „prvními“ záznamy pro jeden z našich klíčů id vlastníka. Proto nejprve takové najdeme „úplně první“ pro každý z klíčů a přidejte jej do seznamu a seřaďte jej v požadovaném pořadí - (datum_úkolu, id).

SQL HowTo: zápis smyčky while přímo v dotazu nebo „Základní tři kroky“

Krok 2: Najděte „další“ položky

Nyní, když vezmeme první položku z našeho seznamu a začneme „krok“ dále podél indexu zachováte klíč owner_id, pak jsou všechny nalezené záznamy přesně ty následující ve výsledném výběru. Samozřejmě jen dokud nezkřížíme tupý klíč druhý záznam v seznamu.

Pokud se ukáže, že jsme „překročili“ druhý rekord, pak poslední přečtený záznam by měl být přidán do seznamu místo prvního (se stejným id vlastníka), načež seznam znovu seřadíme.

SQL HowTo: zápis smyčky while přímo v dotazu nebo „Základní tři kroky“

To znamená, že vždy dostaneme, že seznam nemá více než jeden záznam pro každý z klíčů (pokud záznamy dojdou a my „nepřekřížíme“, tak první záznam ze seznamu jednoduše zmizí a nic se nepřidá ), a oni vždy seřazeno ve vzestupném pořadí klíče aplikace (datum_úlohy, id).

SQL HowTo: zápis smyčky while přímo v dotazu nebo „Základní tři kroky“

Krok 3: Filtrujte a „rozbalte“ záznamy

V některých řádcích našeho rekurzivního výběru některé záznamy rv jsou duplicitní - nejprve najdeme např. „překročení hranice 2. položky seznamu“ a poté ji dosadíme jako 1. ze seznamu. První výskyt je tedy potřeba filtrovat.

Obávaný závěrečný dotaz

WITH RECURSIVE T AS (
  -- #1 : заносим в список "первые" записи по каждому из ключей набора
  WITH wrap AS ( -- "материализуем" record'ы, чтобы обращение к полям не вызывало умножения InitPlan/SubPlan
    WITH T AS (
      SELECT
        (
          SELECT
            r
          FROM
            task r
          WHERE
            owner_id = unnest
          ORDER BY
            task_date, id
          LIMIT 1
        ) r
      FROM
        unnest('{1,2,4,8,16,32,64,128,256,512}'::integer[])
    )
    SELECT
      array_agg(r ORDER BY (r).task_date, (r).id) list -- сортируем список в нужном порядке
    FROM
      T
  )
  SELECT
    list
  , list[1] rv
  , FALSE not_cross
  , 0 size
  FROM
    wrap
UNION ALL
  -- #2 : вычитываем записи 1-го по порядку ключа, пока не перешагнем через запись 2-го
  SELECT
    CASE
      -- если ничего не найдено для ключа 1-й записи
      WHEN X._r IS NOT DISTINCT FROM NULL THEN
        T.list[2:] -- убираем ее из списка
      -- если мы НЕ пересекли прикладной ключ 2-й записи
      WHEN X.not_cross THEN
        T.list -- просто протягиваем тот же список без модификаций
      -- если в списке уже нет 2-й записи
      WHEN T.list[2] IS NULL THEN
        -- просто возвращаем пустой список
        '{}'
      -- пересортировываем словарь, убирая 1-ю запись и добавляя последнюю из найденных
      ELSE (
        SELECT
          coalesce(T.list[2] || array_agg(r ORDER BY (r).task_date, (r).id), '{}')
        FROM
          unnest(T.list[3:] || X._r) r
      )
    END
  , X._r
  , X.not_cross
  , T.size + X.not_cross::integer
  FROM
    T
  , LATERAL(
      WITH wrap AS ( -- "материализуем" record
        SELECT
          CASE
            -- если все-таки "перешагнули" через 2-ю запись
            WHEN NOT T.not_cross
              -- то нужная запись - первая из спписка
              THEN T.list[1]
            ELSE ( -- если не пересекли, то ключ остался как в предыдущей записи - отталкиваемся от нее
              SELECT
                _r
              FROM
                task _r
              WHERE
                owner_id = (rv).owner_id AND
                (task_date, id) > ((rv).task_date, (rv).id)
              ORDER BY
                task_date, id
              LIMIT 1
            )
          END _r
      )
      SELECT
        _r
      , CASE
          -- если 2-й записи уже нет в списке, но мы хоть что-то нашли
          WHEN list[2] IS NULL AND _r IS DISTINCT FROM NULL THEN
            TRUE
          ELSE -- ничего не нашли или "перешагнули"
            coalesce(((_r).task_date, (_r).id) < ((list[2]).task_date, (list[2]).id), FALSE)
        END not_cross
      FROM
        wrap
    ) X
  WHERE
    T.size < 20 AND -- ограничиваем тут количество
    T.list IS DISTINCT FROM '{}' -- или пока список не кончился
)
-- #3 : "разворачиваем" записи - порядок гарантирован по построению
SELECT
  (rv).*
FROM
  T
WHERE
  not_cross; -- берем только "непересекающие" записи

SQL HowTo: zápis smyčky while přímo v dotazu nebo „Základní tři kroky“
[podívejte se na explain.tensor.ru]

Tedy my zobchodováno 50 % přečtení dat po 20 % doby provedení. To znamená, že pokud máte důvody se domnívat, že čtení může trvat dlouho (například data často nejsou v mezipaměti a musíte pro ně jít na disk), můžete se tímto způsobem méně spoléhat na čtení .

V každém případě se čas provedení ukázal být lepší než u „naivní“ první možnosti. Je ale na vás, kterou z těchto 3 možností využijete.

Zdroj: www.habr.com

Přidat komentář