SQL HowTo : écrivez une boucle while directement dans la requête, ou "élémentaire à trois voies"

Périodiquement, la tâche de rechercher des données liées par un ensemble de clés se pose, jusqu'à ce que nous obtenions le nombre total d'enregistrements requis.

L'exemple le plus "réaliste" consiste à afficher 20 problèmes les plus anciens, répertorié sur la liste des employés (par exemple, au sein d'un même service). Pour divers "tableaux de bord" managériaux avec de brefs résumés des domaines de travail, un sujet similaire est assez souvent requis.

SQL HowTo : écrivez une boucle while directement dans la requête, ou "élémentaire à trois voies"

Dans l'article, nous envisagerons l'implémentation sur PostgreSQL d'une version "naïve" de la résolution d'un tel problème, un algorithme "plus intelligent" et très complexe "boucle" en SQL avec une condition de sortie des données trouvées, qui peut être utile à la fois pour le développement général et pour une utilisation dans d'autres cas similaires.

Prenons un ensemble de données de test à partir de article précédent. Pour que les enregistrements de sortie ne "sautent" pas de temps en temps lorsque les valeurs triées correspondent, étendre l'index des sujets en ajoutant une clé primaire. En même temps, cela lui donnera immédiatement l'unicité, et nous garantit l'unicité de l'ordre de tri :

CREATE INDEX ON task(owner_id, task_date, id);
-- а старый - удалим
DROP INDEX task_owner_id_task_date_idx;

Comme on l'entend, ainsi on l'écrit

Tout d'abord, esquissons la version la plus simple de la requête, en transmettant les identifiants des artistes tableau en entrée:

SELECT
  *
FROM
  task
WHERE
  owner_id = ANY('{1,2,4,8,16,32,64,128,256,512}'::integer[])
ORDER BY
  task_date, id
LIMIT 20;

SQL HowTo : écrivez une boucle while directement dans la requête, ou "élémentaire à trois voies"
[regardez expliquer.tensor.ru]

Un peu triste - nous n'avons commandé que 20 disques et Index Scan nous a renvoyé terme 960, qu'il fallait ensuite aussi trier ... Et essayons de lire moins.

désimbriquer + TABLEAU

La première considération qui nous aidera - si nous avons besoin total 20 triés enregistrements, il suffit de lire pas plus de 20 triés dans le même ordre pour chacun clé. Bien, indice approprié (owner_id, task_date, id) que nous avons.

Utilisons le même mécanisme d'extraction et de "transformation en colonnes" saisie complète du tableau, un péché dernier article. Et appliquez également la convolution à un tableau en utilisant la fonction ARRAY():

WITH T AS (
  SELECT
    unnest(ARRAY(
      SELECT
        t
      FROM
        task t
      WHERE
        owner_id = unnest
      ORDER BY
        task_date, id
      LIMIT 20 -- ограничиваем тут...
    )) r
  FROM
    unnest('{1,2,4,8,16,32,64,128,256,512}'::integer[])
)
SELECT
  (r).*
FROM
  T
ORDER BY
  (r).task_date, (r).id
LIMIT 20; -- ... и тут - тоже

SQL HowTo : écrivez une boucle while directement dans la requête, ou "élémentaire à trois voies"
[regardez expliquer.tensor.ru]

Oh, c'est déjà beaucoup mieux ! 40 % plus rapide et 4.5 fois moins de données fallait lire.

Matérialisation des enregistrements de table via CTEje noterai que dans certains cas une tentative de travailler immédiatement avec les champs d'enregistrement après l'avoir recherché dans une sous-requête, sans "envelopper" dans un CTE, peut conduire à "multiplication" InitPlan proportionnel au nombre de ces mêmes champs :

SELECT
  ((
    SELECT
      t
    FROM
      task t
    WHERE
      owner_id = 1
    ORDER BY
      task_date, id
    LIMIT 1
  ).*);

Result  (cost=4.77..4.78 rows=1 width=16) (actual time=0.063..0.063 rows=1 loops=1)
  Buffers: shared hit=16
  InitPlan 1 (returns $0)
    ->  Limit  (cost=0.42..1.19 rows=1 width=48) (actual time=0.031..0.032 rows=1 loops=1)
          Buffers: shared hit=4
          ->  Index Scan using task_owner_id_task_date_id_idx on task t  (cost=0.42..387.57 rows=500 width=48) (actual time=0.030..0.030 rows=1 loops=1)
                Index Cond: (owner_id = 1)
                Buffers: shared hit=4
  InitPlan 2 (returns $1)
    ->  Limit  (cost=0.42..1.19 rows=1 width=48) (actual time=0.008..0.009 rows=1 loops=1)
          Buffers: shared hit=4
          ->  Index Scan using task_owner_id_task_date_id_idx on task t_1  (cost=0.42..387.57 rows=500 width=48) (actual time=0.008..0.008 rows=1 loops=1)
                Index Cond: (owner_id = 1)
                Buffers: shared hit=4
  InitPlan 3 (returns $2)
    ->  Limit  (cost=0.42..1.19 rows=1 width=48) (actual time=0.008..0.008 rows=1 loops=1)
          Buffers: shared hit=4
          ->  Index Scan using task_owner_id_task_date_id_idx on task t_2  (cost=0.42..387.57 rows=500 width=48) (actual time=0.008..0.008 rows=1 loops=1)
                Index Cond: (owner_id = 1)
                Buffers: shared hit=4"
  InitPlan 4 (returns $3)
    ->  Limit  (cost=0.42..1.19 rows=1 width=48) (actual time=0.009..0.009 rows=1 loops=1)
          Buffers: shared hit=4
          ->  Index Scan using task_owner_id_task_date_id_idx on task t_3  (cost=0.42..387.57 rows=500 width=48) (actual time=0.009..0.009 rows=1 loops=1)
                Index Cond: (owner_id = 1)
                Buffers: shared hit=4

Le même enregistrement a été "recherché" 4 fois... Jusqu'à PostgreSQL 11, ce comportement se produit régulièrement, et la solution consiste à "envelopper" dans un CTE, qui est une limite inconditionnelle pour l'optimiseur dans ces versions.

accumulateur récursif

Dans la version précédente, au total, nous lisons terme 200 pour les 20 nécessaires. Déjà pas 960, mais encore moins - est-ce possible?

Essayons d'utiliser les connaissances dont nous avons besoin xnumx total enregistrements. Autrement dit, nous allons itérer la soustraction de données uniquement jusqu'à ce que la quantité dont nous avons besoin soit atteinte.

Étape 1 : Liste de démarrage

Évidemment, notre liste "cible" de 20 entrées devrait commencer par les "premières" entrées pour l'une de nos clés owner_id. Par conséquent, nous trouvons d'abord un tel "très premier" pour chacune des touches et placez-le dans la liste, en le triant dans l'ordre que nous voulons - (task_date, id).

SQL HowTo : écrivez une boucle while directement dans la requête, ou "élémentaire à trois voies"

Étape 2 : rechercher les enregistrements "suivants"

Maintenant, si nous prenons la première entrée de notre liste et commençons "étape" plus bas dans l'index avec la sauvegarde de la clé owner_id, tous les enregistrements trouvés ne sont que les suivants dans la sélection résultante. Bien sûr, seulement jusqu'à ce qu'on croise la touche appliquée deuxième entrée de la liste.

S'il s'avérait que nous "franchions" la deuxième entrée, alors la dernière entrée lue doit être ajoutée à la liste au lieu de la première (avec le même owner_id), après quoi la liste est à nouveau triée.

SQL HowTo : écrivez une boucle while directement dans la requête, ou "élémentaire à trois voies"

C'est-à-dire que nous obtenons toujours que la liste n'a pas plus d'une entrée pour chacune des clés (si les entrées sont terminées et que nous n'avons pas «croisé», alors la première entrée disparaîtra simplement de la liste et rien ne sera ajouté ), et ils toujours trié dans l'ordre croissant de la clé de l'application (task_date, id).

SQL HowTo : écrivez une boucle while directement dans la requête, ou "élémentaire à trois voies"

Étape 3 : Filtrage et extension des enregistrements

Dans la partie des lignes de notre sélection récursive, quelques enregistrements rv sont dupliqués - nous trouvons d'abord comme "franchir la frontière de la 2ème entrée de la liste", puis nous remplaçons par le 1er de la liste. Et donc la première occurrence doit être filtrée.

Terrible dernière requête

WITH RECURSIVE T AS (
  -- #1 : заносим в список "первые" записи по каждому из ключей набора
  WITH wrap AS ( -- "материализуем" record'ы, чтобы обращение к полям не вызывало умножения InitPlan/SubPlan
    WITH T AS (
      SELECT
        (
          SELECT
            r
          FROM
            task r
          WHERE
            owner_id = unnest
          ORDER BY
            task_date, id
          LIMIT 1
        ) r
      FROM
        unnest('{1,2,4,8,16,32,64,128,256,512}'::integer[])
    )
    SELECT
      array_agg(r ORDER BY (r).task_date, (r).id) list -- сортируем список в нужном порядке
    FROM
      T
  )
  SELECT
    list
  , list[1] rv
  , FALSE not_cross
  , 0 size
  FROM
    wrap
UNION ALL
  -- #2 : вычитываем записи 1-го по порядку ключа, пока не перешагнем через запись 2-го
  SELECT
    CASE
      -- если ничего не найдено для ключа 1-й записи
      WHEN X._r IS NOT DISTINCT FROM NULL THEN
        T.list[2:] -- убираем ее из списка
      -- если мы НЕ пересекли прикладной ключ 2-й записи
      WHEN X.not_cross THEN
        T.list -- просто протягиваем тот же список без модификаций
      -- если в списке уже нет 2-й записи
      WHEN T.list[2] IS NULL THEN
        -- просто возвращаем пустой список
        '{}'
      -- пересортировываем словарь, убирая 1-ю запись и добавляя последнюю из найденных
      ELSE (
        SELECT
          coalesce(T.list[2] || array_agg(r ORDER BY (r).task_date, (r).id), '{}')
        FROM
          unnest(T.list[3:] || X._r) r
      )
    END
  , X._r
  , X.not_cross
  , T.size + X.not_cross::integer
  FROM
    T
  , LATERAL(
      WITH wrap AS ( -- "материализуем" record
        SELECT
          CASE
            -- если все-таки "перешагнули" через 2-ю запись
            WHEN NOT T.not_cross
              -- то нужная запись - первая из спписка
              THEN T.list[1]
            ELSE ( -- если не пересекли, то ключ остался как в предыдущей записи - отталкиваемся от нее
              SELECT
                _r
              FROM
                task _r
              WHERE
                owner_id = (rv).owner_id AND
                (task_date, id) > ((rv).task_date, (rv).id)
              ORDER BY
                task_date, id
              LIMIT 1
            )
          END _r
      )
      SELECT
        _r
      , CASE
          -- если 2-й записи уже нет в списке, но мы хоть что-то нашли
          WHEN list[2] IS NULL AND _r IS DISTINCT FROM NULL THEN
            TRUE
          ELSE -- ничего не нашли или "перешагнули"
            coalesce(((_r).task_date, (_r).id) < ((list[2]).task_date, (list[2]).id), FALSE)
        END not_cross
      FROM
        wrap
    ) X
  WHERE
    T.size < 20 AND -- ограничиваем тут количество
    T.list IS DISTINCT FROM '{}' -- или пока список не кончился
)
-- #3 : "разворачиваем" записи - порядок гарантирован по построению
SELECT
  (rv).*
FROM
  T
WHERE
  not_cross; -- берем только "непересекающие" записи

SQL HowTo : écrivez une boucle while directement dans la requête, ou "élémentaire à trois voies"
[regardez expliquer.tensor.ru]

Ainsi, nous échangé 50 % de lectures de données pour 20 % de temps d'exécution. Autrement dit, si vous avez des raisons de croire que la lecture peut être longue (par exemple, les données ne sont souvent pas dans le cache et vous devez aller sur le disque pour cela), alors vous pouvez compter moins sur la lecture.

Dans tous les cas, le temps d'exécution s'est avéré meilleur que dans la première option "naïve". Mais laquelle de ces 3 options utiliser dépend de vous.

Source: habr.com

Ajouter un commentaire