SQL HowTo: napisz pętlę while bezpośrednio w zapytaniu lub „Elementary trójdrożny”

Okresowo pojawia się zadanie wyszukiwania powiązanych danych za pomocą zestawu kluczy, aż uzyskamy wymaganą łączną liczbę rekordów.

Najbardziej „realistycznym” przykładem jest wyświetlenie 20 najstarszych problemów, wymienione na liście pracowników (na przykład w ramach tego samego działu). W przypadku różnych „dashboardów” menedżerskich z krótkimi podsumowaniami obszarów pracy dość często wymagany jest podobny temat.

SQL HowTo: napisz pętlę while bezpośrednio w zapytaniu lub „Elementary trójdrożny”

W artykule rozważymy wdrożenie na PostgreSQL „naiwnej” wersji rozwiązania takiego problemu, „mądrzejszego” i bardzo złożonego algorytmu „pętla” w SQL z warunkiem wyjścia ze znalezionych danych, które mogą być przydatne zarówno do ogólnego rozwoju, jak i do wykorzystania w innych podobnych przypadkach.

Weźmy testowy zestaw danych z poprzedni artykuł. Aby rekordy wyjściowe nie „przeskakiwały” od czasu do czasu, gdy posortowane wartości się zgadzają, rozszerz indeks tematyczny, dodając klucz podstawowy. Jednocześnie nada to od razu niepowtarzalności, a nam zagwarantuje niepowtarzalność kolejności sortowania:

CREATE INDEX ON task(owner_id, task_date, id);
-- а старый - удалим
DROP INDEX task_owner_id_task_date_idx;

Jak się słyszy, tak jest napisane

Najpierw naszkicujmy najprostszą wersję żądania, przekazując identyfikatory wykonawców tablica jako dane wejściowe:

SELECT
  *
FROM
  task
WHERE
  owner_id = ANY('{1,2,4,8,16,32,64,128,256,512}'::integer[])
ORDER BY
  task_date, id
LIMIT 20;

SQL HowTo: napisz pętlę while bezpośrednio w zapytaniu lub „Elementary trójdrożny”
[patrz na explain.tensor.ru]

Trochę smutno - zamówiliśmy tylko 20 płyt, a Index Scan zwrócił nam Wiersze 960, które potem też trzeba było posortować... A spróbujmy mniej czytać.

rozgnieść + TABLICA

Pierwsza uwaga, która nam pomoże - jeśli tego potrzebujemy łącznie 20 posortowanych zapisy, wystarczy przeczytać nie więcej niż 20 posortowanych w tej samej kolejności dla każdego klucz. Dobry, odpowiedni indeks (identyfikator_właściciela, data_zadania, identyfikator) mamy.

Użyjmy tego samego mechanizmu wydobywania i „zamieniania w kolumny” integralny wpis w tabeli, jak w ostatni artykuł. A także zastosuj splot do tablicy za pomocą funkcji ARRAY():

WITH T AS (
  SELECT
    unnest(ARRAY(
      SELECT
        t
      FROM
        task t
      WHERE
        owner_id = unnest
      ORDER BY
        task_date, id
      LIMIT 20 -- ограничиваем тут...
    )) r
  FROM
    unnest('{1,2,4,8,16,32,64,128,256,512}'::integer[])
)
SELECT
  (r).*
FROM
  T
ORDER BY
  (r).task_date, (r).id
LIMIT 20; -- ... и тут - тоже

SQL HowTo: napisz pętlę while bezpośrednio w zapytaniu lub „Elementary trójdrożny”
[patrz na explain.tensor.ru]

O, już jest dużo lepiej! 40% szybciej i 4.5 razy mniej danych trzeba było przeczytać.

Materializacja rekordów tabeli poprzez CTEZanotuję to w niektórych przypadkach próba natychmiastowej pracy z polami rekordu po wyszukaniu go w podzapytaniu, bez „zawijania” w CTE, może doprowadzić do „Mnożenie” InitPlan proporcjonalna do liczby tych samych pól:

SELECT
  ((
    SELECT
      t
    FROM
      task t
    WHERE
      owner_id = 1
    ORDER BY
      task_date, id
    LIMIT 1
  ).*);

Result  (cost=4.77..4.78 rows=1 width=16) (actual time=0.063..0.063 rows=1 loops=1)
  Buffers: shared hit=16
  InitPlan 1 (returns $0)
    ->  Limit  (cost=0.42..1.19 rows=1 width=48) (actual time=0.031..0.032 rows=1 loops=1)
          Buffers: shared hit=4
          ->  Index Scan using task_owner_id_task_date_id_idx on task t  (cost=0.42..387.57 rows=500 width=48) (actual time=0.030..0.030 rows=1 loops=1)
                Index Cond: (owner_id = 1)
                Buffers: shared hit=4
  InitPlan 2 (returns $1)
    ->  Limit  (cost=0.42..1.19 rows=1 width=48) (actual time=0.008..0.009 rows=1 loops=1)
          Buffers: shared hit=4
          ->  Index Scan using task_owner_id_task_date_id_idx on task t_1  (cost=0.42..387.57 rows=500 width=48) (actual time=0.008..0.008 rows=1 loops=1)
                Index Cond: (owner_id = 1)
                Buffers: shared hit=4
  InitPlan 3 (returns $2)
    ->  Limit  (cost=0.42..1.19 rows=1 width=48) (actual time=0.008..0.008 rows=1 loops=1)
          Buffers: shared hit=4
          ->  Index Scan using task_owner_id_task_date_id_idx on task t_2  (cost=0.42..387.57 rows=500 width=48) (actual time=0.008..0.008 rows=1 loops=1)
                Index Cond: (owner_id = 1)
                Buffers: shared hit=4"
  InitPlan 4 (returns $3)
    ->  Limit  (cost=0.42..1.19 rows=1 width=48) (actual time=0.009..0.009 rows=1 loops=1)
          Buffers: shared hit=4
          ->  Index Scan using task_owner_id_task_date_id_idx on task t_3  (cost=0.42..387.57 rows=500 width=48) (actual time=0.009..0.009 rows=1 loops=1)
                Index Cond: (owner_id = 1)
                Buffers: shared hit=4

Ten sam rekord był „przeszukiwany” 4 razy… Do PostgreSQL 11 takie zachowanie występuje regularnie, a rozwiązaniem jest „zawijanie” w CTE, które jest bezwarunkową granicą dla optymalizatora w tych wersjach.

akumulator rekurencyjny

W poprzedniej wersji czytamy w sumie Wiersze 200 ze względu na niezbędne 20. Już nie 960, ale jeszcze mniej - czy to możliwe?

Spróbujmy wykorzystać potrzebną nam wiedzę łącznie 20 dokumentacja. Oznacza to, że będziemy iterować odejmowanie danych tylko do momentu osiągnięcia potrzebnej kwoty.

Krok 1: Lista startowa

Oczywiście nasza „docelowa” lista 20 wpisów powinna zaczynać się od „pierwszych” wpisów dla jednego z naszych kluczy id_właściciela. Dlatego najpierw znajdujemy takie „najpierw” dla każdego z kluczy i umieść go na liście, sortując w żądanej kolejności - (data_zadania, id).

SQL HowTo: napisz pętlę while bezpośrednio w zapytaniu lub „Elementary trójdrożny”

Krok 2: znajdź „następne” rekordy

Teraz, jeśli weźmiemy pierwszy wpis z naszej listy i zaczniemy „krok” dalej w dół indeksu z zapisaniem klucza id_właściciela, to wszystkie znalezione rekordy są tylko kolejnymi w wynikowym wyborze. Oczywiście tylko aż przekroczymy zastosowany klucz drugi wpis na liście.

Gdyby okazało się, że „przekroczyliśmy” drugi wpis, to tak ostatnia przeczytana pozycja powinna zostać dodana do listy zamiast pierwszej (z tym samym id_właściciela), po czym lista jest ponownie sortowana.

SQL HowTo: napisz pętlę while bezpośrednio w zapytaniu lub „Elementary trójdrożny”

To znaczy zawsze dostajemy, że na liście jest nie więcej niż jeden wpis dla każdego z kluczy (jeśli wpisy się skończyły, a my nie „skrzyżowaliśmy”, to pierwszy wpis po prostu zniknie z listy i nic nie zostanie dodane ), i oni zawsze posortowane rosnąco według klucza aplikacji (data_zadania, id).

SQL HowTo: napisz pętlę while bezpośrednio w zapytaniu lub „Elementary trójdrożny”

Krok 3: Filtrowanie i rozszerzanie rekordów

W części wierszy naszego wyboru rekurencyjnego niektóre rekordy rv są zduplikowane - najpierw znajdujemy np. „przekroczenie granicy drugiego wpisu na liście”, a następnie podstawiamy jako pierwszy z listy. I tak pierwsze wystąpienie powinno zostać odfiltrowane.

Okropne ostatnie zapytanie

WITH RECURSIVE T AS (
  -- #1 : заносим в список "первые" записи по каждому из ключей набора
  WITH wrap AS ( -- "материализуем" record'ы, чтобы обращение к полям не вызывало умножения InitPlan/SubPlan
    WITH T AS (
      SELECT
        (
          SELECT
            r
          FROM
            task r
          WHERE
            owner_id = unnest
          ORDER BY
            task_date, id
          LIMIT 1
        ) r
      FROM
        unnest('{1,2,4,8,16,32,64,128,256,512}'::integer[])
    )
    SELECT
      array_agg(r ORDER BY (r).task_date, (r).id) list -- сортируем список в нужном порядке
    FROM
      T
  )
  SELECT
    list
  , list[1] rv
  , FALSE not_cross
  , 0 size
  FROM
    wrap
UNION ALL
  -- #2 : вычитываем записи 1-го по порядку ключа, пока не перешагнем через запись 2-го
  SELECT
    CASE
      -- если ничего не найдено для ключа 1-й записи
      WHEN X._r IS NOT DISTINCT FROM NULL THEN
        T.list[2:] -- убираем ее из списка
      -- если мы НЕ пересекли прикладной ключ 2-й записи
      WHEN X.not_cross THEN
        T.list -- просто протягиваем тот же список без модификаций
      -- если в списке уже нет 2-й записи
      WHEN T.list[2] IS NULL THEN
        -- просто возвращаем пустой список
        '{}'
      -- пересортировываем словарь, убирая 1-ю запись и добавляя последнюю из найденных
      ELSE (
        SELECT
          coalesce(T.list[2] || array_agg(r ORDER BY (r).task_date, (r).id), '{}')
        FROM
          unnest(T.list[3:] || X._r) r
      )
    END
  , X._r
  , X.not_cross
  , T.size + X.not_cross::integer
  FROM
    T
  , LATERAL(
      WITH wrap AS ( -- "материализуем" record
        SELECT
          CASE
            -- если все-таки "перешагнули" через 2-ю запись
            WHEN NOT T.not_cross
              -- то нужная запись - первая из спписка
              THEN T.list[1]
            ELSE ( -- если не пересекли, то ключ остался как в предыдущей записи - отталкиваемся от нее
              SELECT
                _r
              FROM
                task _r
              WHERE
                owner_id = (rv).owner_id AND
                (task_date, id) > ((rv).task_date, (rv).id)
              ORDER BY
                task_date, id
              LIMIT 1
            )
          END _r
      )
      SELECT
        _r
      , CASE
          -- если 2-й записи уже нет в списке, но мы хоть что-то нашли
          WHEN list[2] IS NULL AND _r IS DISTINCT FROM NULL THEN
            TRUE
          ELSE -- ничего не нашли или "перешагнули"
            coalesce(((_r).task_date, (_r).id) < ((list[2]).task_date, (list[2]).id), FALSE)
        END not_cross
      FROM
        wrap
    ) X
  WHERE
    T.size < 20 AND -- ограничиваем тут количество
    T.list IS DISTINCT FROM '{}' -- или пока список не кончился
)
-- #3 : "разворачиваем" записи - порядок гарантирован по построению
SELECT
  (rv).*
FROM
  T
WHERE
  not_cross; -- берем только "непересекающие" записи

SQL HowTo: napisz pętlę while bezpośrednio w zapytaniu lub „Elementary trójdrożny”
[patrz na explain.tensor.ru]

Tak więc my wymienił 50% odczytów danych za 20% czasu wykonania. Oznacza to, że jeśli masz powody sądzić, że czytanie może być długie (na przykład dane często nie znajdują się w pamięci podręcznej i musisz przejść do dysku), w ten sposób możesz polegać na czytaniu mniej.

W każdym razie czas wykonania okazał się lepszy niż w „naiwnym” pierwszym wariancie. Ale którą z tych 3 opcji użyjesz, zależy od Ciebie.

Źródło: www.habr.com

Dodaj komentarz