PostgreSQL'de paralel sorgular

PostgreSQL'de paralel sorgular
Modern CPU'ların çok sayıda çekirdeği vardır. Yıllardır uygulamalar veritabanlarına paralel olarak sorgu gönderiyor. Bir tablodaki birden çok satıra ilişkin bir rapor sorgusuysa, birden çok CPU kullanıldığında daha hızlı çalışır ve PostgreSQL bunu 9.6 sürümünden beri yapabilmektedir.

Paralel sorgu özelliğini uygulamak 3 yıl sürdü; sorgu yürütmenin farklı aşamalarında kodu yeniden yazmak zorunda kaldık. PostgreSQL 9.6, kodu daha da geliştirmek için altyapıyı kullanıma sundu. Sonraki sürümlerde diğer sorgu türleri paralel olarak yürütülür.

Kısıtlamalar

  • Tüm çekirdekler zaten meşgulse paralel yürütmeyi etkinleştirmeyin, aksi takdirde diğer istekler yavaşlar.
  • En önemlisi, yüksek WORK_MEM değerlerine sahip paralel işleme, çok fazla bellek kullanır; her karma birleştirme veya sıralama, work_mem belleğini kaplar.
  • Düşük gecikme süreli OLTP sorguları paralel yürütmeyle hızlandırılamaz. Sorgu bir satır döndürürse paralel işleme yalnızca onu yavaşlatacaktır.
  • Geliştiriciler TPC-H kıyaslamasını kullanmayı severler. Belki mükemmel paralel yürütme için benzer sorgularınız vardır.
  • Yalnızca yüklem kilitlemesi olmayan SELECT sorguları paralel olarak yürütülür.
  • Bazen uygun indeksleme, paralel modda sıralı tablo taramaktan daha iyidir.
  • Sorguların ve imleçlerin duraklatılması desteklenmez.
  • Pencere işlevleri ve sıralı küme toplama işlevleri paralel değildir.
  • G/Ç iş yükünden hiçbir şey kazanamazsınız.
  • Paralel sıralama algoritmaları yoktur. Ancak bazı yönlerden sıralamalı sorgular paralel olarak yürütülebilir.
  • Paralel işlemeyi etkinleştirmek için CTE'yi (WITH ...) iç içe geçmiş bir SELECT ile değiştirin.
  • Üçüncü taraf veri sarmalayıcılar henüz paralel işlemeyi desteklemiyor (ancak destekleyebilirler!)
  • FULL OUTER JOIN desteklenmiyor.
  • max_rows paralel işlemeyi devre dışı bırakır.
  • Bir sorgunun PARALEL GÜVENLİ olarak işaretlenmemiş bir işlevi varsa, bu tek iş parçacıklı olacaktır.
  • SERIALIZABLE işlem izolasyon düzeyi paralel işlemeyi devre dışı bırakır.

Test ortamı

PostgreSQL geliştiricileri TPC-H kıyaslama sorgularının yanıt süresini kısaltmaya çalıştı. Karşılaştırmayı indirin ve PostgreSQL'e uyarlayın. Bu, TPC-H kıyaslamasının resmi olmayan bir kullanımıdır; veritabanı veya donanım karşılaştırması için değildir.

  1. TPC-H_Tools_v2.17.3.zip'i (veya daha yeni sürümü) indirin TPC'nin tesis dışından.
  2. makefile.suite'i Makefile olarak yeniden adlandırın ve burada açıklandığı şekilde değiştirin: https://github.com/tvondra/pg_tpch . Kodu make komutuyla derleyin.
  3. Veri oluştur: ./dbgen -s 10 23 GB'lık bir veritabanı oluşturur. Bu, paralel ve paralel olmayan sorguların performansındaki farkı görmek için yeterlidir.
  4. Dosyaları dönüştür tbl в csv с for и sed.
  5. Depoyu klonla pg_tpch ve dosyaları kopyalayın csv в pg_tpch/dss/data.
  6. Bir komutla sorgular oluşturma qgen.
  7. Komutu ile veri tabanına veri yükleyin ./tpch.sh.

Paralel sıralı tarama

Paralel okuma nedeniyle değil, veriler birçok CPU çekirdeğine yayılmış olduğundan daha hızlı olabilir. Modern işletim sistemlerinde PostgreSQL veri dosyaları iyi bir şekilde önbelleğe alınır. İleri okuma ile depolamadan PG arka plan programının taleplerinden daha büyük bir blok elde etmek mümkündür. Bu nedenle sorgu performansı disk G/Ç ile sınırlı değildir. Aşağıdakiler için CPU döngülerini tüketir:

  • tablo sayfalarından satırları teker teker okuyun;
  • dize değerlerini ve koşullarını karşılaştırın WHERE.

Basit bir sorgu çalıştıralım select:

tpch=# explain analyze select l_quantity as sum_qty from lineitem where l_shipdate <= date '1998-12-01' - interval '105' day;
QUERY PLAN
--------------------------------------------------------------------------------------------------------------------------
Seq Scan on lineitem (cost=0.00..1964772.00 rows=58856235 width=5) (actual time=0.014..16951.669 rows=58839715 loops=1)
Filter: (l_shipdate <= '1998-08-18 00:00:00'::timestamp without time zone)
Rows Removed by Filter: 1146337
Planning Time: 0.203 ms
Execution Time: 19035.100 ms

Sıralı tarama, toplama olmadan çok fazla satır ürettiğinden sorgu tek bir CPU çekirdeği tarafından yürütülür.

eklersen SUM(), iki iş akışının sorguyu hızlandırmaya yardımcı olacağını görebilirsiniz:

explain analyze select sum(l_quantity) as sum_qty from lineitem where l_shipdate <= date '1998-12-01' - interval '105' day;
QUERY PLAN
----------------------------------------------------------------------------------------------------------------------------------------------------
Finalize Aggregate (cost=1589702.14..1589702.15 rows=1 width=32) (actual time=8553.365..8553.365 rows=1 loops=1)
-> Gather (cost=1589701.91..1589702.12 rows=2 width=32) (actual time=8553.241..8555.067 rows=3 loops=1)
Workers Planned: 2
Workers Launched: 2
-> Partial Aggregate (cost=1588701.91..1588701.92 rows=1 width=32) (actual time=8547.546..8547.546 rows=1 loops=3)
-> Parallel Seq Scan on lineitem (cost=0.00..1527393.33 rows=24523431 width=5) (actual time=0.038..5998.417 rows=19613238 loops=3)
Filter: (l_shipdate <= '1998-08-18 00:00:00'::timestamp without time zone)
Rows Removed by Filter: 382112
Planning Time: 0.241 ms
Execution Time: 8555.131 ms

Paralel toplama

Paralel Sıra Tarama düğümü, kısmi toplama için satırlar üretir. "Kısmi Toplama" düğümü bu çizgileri kullanarak kırpıyor SUM(). Sonunda, her çalışan sürecinin TOPLA sayacı "Topla" düğümü tarafından toplanır.

Nihai sonuç “Toplamayı Sonlandır” düğümü tarafından hesaplanır. Eğer kendinize ait toplama fonksiyonlarınız varsa bunları “paralel kasa” olarak işaretlemeyi unutmayın.

Çalışan süreçlerinin sayısı

Çalışan işlemlerin sayısı, sunucuyu yeniden başlatmadan artırılabilir:

explain analyze select sum(l_quantity) as sum_qty from lineitem where l_shipdate <= date '1998-12-01' - interval '105' day;
QUERY PLAN
----------------------------------------------------------------------------------------------------------------------------------------------------
Finalize Aggregate (cost=1589702.14..1589702.15 rows=1 width=32) (actual time=8553.365..8553.365 rows=1 loops=1)
-> Gather (cost=1589701.91..1589702.12 rows=2 width=32) (actual time=8553.241..8555.067 rows=3 loops=1)
Workers Planned: 2
Workers Launched: 2
-> Partial Aggregate (cost=1588701.91..1588701.92 rows=1 width=32) (actual time=8547.546..8547.546 rows=1 loops=3)
-> Parallel Seq Scan on lineitem (cost=0.00..1527393.33 rows=24523431 width=5) (actual time=0.038..5998.417 rows=19613238 loops=3)
Filter: (l_shipdate <= '1998-08-18 00:00:00'::timestamp without time zone)
Rows Removed by Filter: 382112
Planning Time: 0.241 ms
Execution Time: 8555.131 ms

Burada neler oluyor? 2 kat daha fazla iş süreci vardı ve istek yalnızca 1,6599 kat daha hızlı hale geldi. Hesaplamalar ilginç. 2 çalışan sürecimiz ve 1 liderimiz vardı. Değişiklikten sonra 4+1 oldu.

Paralel işlemden maksimum hızımız: 5/3 = 1,66(6) kat.

Nasıl çalışır?

süreçler

İsteğin yürütülmesi her zaman öncü süreçle başlar. Lider paralel olmayan her şeyi ve bazı paralel işlemleri yapar. Aynı istekleri gerçekleştiren diğer işlemlere çalışan işlemler denir. Paralel işleme altyapıyı kullanır dinamik arka plan çalışan işlemleri (sürüm 9.4'ten itibaren). PostgreSQL'in diğer bölümleri iş parçacığı yerine süreçleri kullandığından, 3 çalışan süreci içeren bir sorgu, geleneksel işleme göre 4 kat daha hızlı olabilir.

Etkileşim

Çalışan süreçleri liderle bir mesaj kuyruğu (paylaşılan belleğe dayalı) aracılığıyla iletişim kurar. Her sürecin 2 kuyruğu vardır: hatalar ve kayıtlar için.

Kaç iş akışına ihtiyaç var?

Minimum limit parametre tarafından belirlenir max_parallel_workers_per_gather. İstek çalıştırıcısı daha sonra çalışan işlemlerini parametreyle sınırlı olan havuzdan alır. max_parallel_workers size. Son sınırlama ise max_worker_processesyani arka plan işlemlerinin toplam sayısı.

Bir çalışan süreci tahsis etmek mümkün değilse, işleme tek süreçli olacaktır.

Sorgu planlayıcı, tablonun veya dizinin boyutuna bağlı olarak iş akışlarını azaltabilir. Bunun için parametreler var min_parallel_table_scan_size и min_parallel_index_scan_size.

set min_parallel_table_scan_size='8MB'
8MB table => 1 worker
24MB table => 2 workers
72MB table => 3 workers
x => log(x / min_parallel_table_scan_size) / log(3) + 1 worker

Masa her defasında 3 kat daha büyük olduğunda min_parallel_(index|table)_scan_size, Postgres bir çalışan süreci ekler. İş akışı sayısı maliyetlere bağlı değildir. Döngüsel bağımlılık karmaşık uygulamaları zorlaştırır. Bunun yerine planlayıcı basit kurallar kullanır.

Uygulamada bu kurallar her zaman üretim için uygun değildir, dolayısıyla belirli bir tablo için çalışan süreç sayısını değiştirebilirsiniz: ALTER TABLE ... SET (parallel_workers = N).

Paralel işleme neden kullanılmıyor?

Uzun kısıtlama listesine ek olarak maliyet kontrolleri de vardır:

parallel_setup_cost - Kısa isteklerin paralel işlenmesini önlemek için. Bu parametre belleği hazırlama, işlemi başlatma ve ilk veri alışverişi süresini tahmin eder.

parallel_tuple_cost: Lider ile çalışanlar arasındaki iletişim, iş süreçlerindeki tuple sayısıyla orantılı olarak gecikebilir. Bu parametre veri alışverişinin maliyetini hesaplar.

İç İçe Döngü Birleşimleri

PostgreSQL 9.6+ может выполнять вложенные циклы параллельно — это простая операция.

explain (costs off) select c_custkey, count(o_orderkey)
                from    customer left outer join orders on
                                c_custkey = o_custkey and o_comment not like '%special%deposits%'
                group by c_custkey;
                                      QUERY PLAN
--------------------------------------------------------------------------------------
 Finalize GroupAggregate
   Group Key: customer.c_custkey
   ->  Gather Merge
         Workers Planned: 4
         ->  Partial GroupAggregate
               Group Key: customer.c_custkey
               ->  Nested Loop Left Join
                     ->  Parallel Index Only Scan using customer_pkey on customer
                     ->  Index Scan using idx_orders_custkey on orders
                           Index Cond: (customer.c_custkey = o_custkey)
                           Filter: ((o_comment)::text !~~ '%special%deposits%'::text)

Toplama son aşamada gerçekleşir, dolayısıyla İç İçe Döngü Sol Birleştirme paralel bir işlemdir. Yalnızca Paralel Dizin Taraması yalnızca sürüm 10'da tanıtıldı. Paralel seri taramaya benzer şekilde çalışır. Durum c_custkey = o_custkey istemci dizesi başına bir sipariş okur. Yani paralel değil.

Karma Katıl

PostgreSQL 11'e kadar her çalışan süreç kendi hash tablosunu oluşturur. Ve eğer bu süreçlerden dörtten fazlası varsa performans artmayacaktır. Yeni versiyonda hash tablosu paylaşılmaktadır. Her çalışan süreç, bir karma tablo oluşturmak için WORK_MEM'yi kullanabilir.

select
        l_shipmode,
        sum(case
                when o_orderpriority = '1-URGENT'
                        or o_orderpriority = '2-HIGH'
                        then 1
                else 0
        end) as high_line_count,
        sum(case
                when o_orderpriority <> '1-URGENT'
                        and o_orderpriority <> '2-HIGH'
                        then 1
                else 0
        end) as low_line_count
from
        orders,
        lineitem
where
        o_orderkey = l_orderkey
        and l_shipmode in ('MAIL', 'AIR')
        and l_commitdate < l_receiptdate
        and l_shipdate < l_commitdate
        and l_receiptdate >= date '1996-01-01'
        and l_receiptdate < date '1996-01-01' + interval '1' year
group by
        l_shipmode
order by
        l_shipmode
LIMIT 1;
                                                                                                                                    QUERY PLAN
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
 Limit  (cost=1964755.66..1964961.44 rows=1 width=27) (actual time=7579.592..7922.997 rows=1 loops=1)
   ->  Finalize GroupAggregate  (cost=1964755.66..1966196.11 rows=7 width=27) (actual time=7579.590..7579.591 rows=1 loops=1)
         Group Key: lineitem.l_shipmode
         ->  Gather Merge  (cost=1964755.66..1966195.83 rows=28 width=27) (actual time=7559.593..7922.319 rows=6 loops=1)
               Workers Planned: 4
               Workers Launched: 4
               ->  Partial GroupAggregate  (cost=1963755.61..1965192.44 rows=7 width=27) (actual time=7548.103..7564.592 rows=2 loops=5)
                     Group Key: lineitem.l_shipmode
                     ->  Sort  (cost=1963755.61..1963935.20 rows=71838 width=27) (actual time=7530.280..7539.688 rows=62519 loops=5)
                           Sort Key: lineitem.l_shipmode
                           Sort Method: external merge  Disk: 2304kB
                           Worker 0:  Sort Method: external merge  Disk: 2064kB
                           Worker 1:  Sort Method: external merge  Disk: 2384kB
                           Worker 2:  Sort Method: external merge  Disk: 2264kB
                           Worker 3:  Sort Method: external merge  Disk: 2336kB
                           ->  Parallel Hash Join  (cost=382571.01..1957960.99 rows=71838 width=27) (actual time=7036.917..7499.692 rows=62519 loops=5)
                                 Hash Cond: (lineitem.l_orderkey = orders.o_orderkey)
                                 ->  Parallel Seq Scan on lineitem  (cost=0.00..1552386.40 rows=71838 width=19) (actual time=0.583..4901.063 rows=62519 loops=5)
                                       Filter: ((l_shipmode = ANY ('{MAIL,AIR}'::bpchar[])) AND (l_commitdate < l_receiptdate) AND (l_shipdate < l_commitdate) AND (l_receiptdate >= '1996-01-01'::date) AND (l_receiptdate < '1997-01-01 00:00:00'::timestamp without time zone))
                                       Rows Removed by Filter: 11934691
                                 ->  Parallel Hash  (cost=313722.45..313722.45 rows=3750045 width=20) (actual time=2011.518..2011.518 rows=3000000 loops=5)
                                       Buckets: 65536  Batches: 256  Memory Usage: 3840kB
                                       ->  Parallel Seq Scan on orders  (cost=0.00..313722.45 rows=3750045 width=20) (actual time=0.029..995.948 rows=3000000 loops=5)
 Planning Time: 0.977 ms
 Execution Time: 7923.770 ms

TPC-H'deki sorgu 12 açıkça paralel bir karma bağlantıyı gösteriyor. Her çalışan süreci ortak bir karma tablosunun oluşturulmasına katkıda bulunur.

Birleştir Katıl

Birleştirme birleşimi doğası gereği paralel değildir. Bu, sorgunun son adımıysa endişelenmeyin; hâlâ paralel olarak çalışabilir.

-- Query 2 from TPC-H
explain (costs off) select s_acctbal, s_name, n_name, p_partkey, p_mfgr, s_address, s_phone, s_comment
from    part, supplier, partsupp, nation, region
where
        p_partkey = ps_partkey
        and s_suppkey = ps_suppkey
        and p_size = 36
        and p_type like '%BRASS'
        and s_nationkey = n_nationkey
        and n_regionkey = r_regionkey
        and r_name = 'AMERICA'
        and ps_supplycost = (
                select
                        min(ps_supplycost)
                from    partsupp, supplier, nation, region
                where
                        p_partkey = ps_partkey
                        and s_suppkey = ps_suppkey
                        and s_nationkey = n_nationkey
                        and n_regionkey = r_regionkey
                        and r_name = 'AMERICA'
        )
order by s_acctbal desc, n_name, s_name, p_partkey
LIMIT 100;
                                                QUERY PLAN
----------------------------------------------------------------------------------------------------------
 Limit
   ->  Sort
         Sort Key: supplier.s_acctbal DESC, nation.n_name, supplier.s_name, part.p_partkey
         ->  Merge Join
               Merge Cond: (part.p_partkey = partsupp.ps_partkey)
               Join Filter: (partsupp.ps_supplycost = (SubPlan 1))
               ->  Gather Merge
                     Workers Planned: 4
                     ->  Parallel Index Scan using <strong>part_pkey</strong> on part
                           Filter: (((p_type)::text ~~ '%BRASS'::text) AND (p_size = 36))
               ->  Materialize
                     ->  Sort
                           Sort Key: partsupp.ps_partkey
                           ->  Nested Loop
                                 ->  Nested Loop
                                       Join Filter: (nation.n_regionkey = region.r_regionkey)
                                       ->  Seq Scan on region
                                             Filter: (r_name = 'AMERICA'::bpchar)
                                       ->  Hash Join
                                             Hash Cond: (supplier.s_nationkey = nation.n_nationkey)
                                             ->  Seq Scan on supplier
                                             ->  Hash
                                                   ->  Seq Scan on nation
                                 ->  Index Scan using idx_partsupp_suppkey on partsupp
                                       Index Cond: (ps_suppkey = supplier.s_suppkey)
               SubPlan 1
                 ->  Aggregate
                       ->  Nested Loop
                             Join Filter: (nation_1.n_regionkey = region_1.r_regionkey)
                             ->  Seq Scan on region region_1
                                   Filter: (r_name = 'AMERICA'::bpchar)
                             ->  Nested Loop
                                   ->  Nested Loop
                                         ->  Index Scan using idx_partsupp_partkey on partsupp partsupp_1
                                               Index Cond: (part.p_partkey = ps_partkey)
                                         ->  Index Scan using supplier_pkey on supplier supplier_1
                                               Index Cond: (s_suppkey = partsupp_1.ps_suppkey)
                                   ->  Index Scan using nation_pkey on nation nation_1
                                         Index Cond: (n_nationkey = supplier_1.s_nationkey)

"Birleştirme Katıl" düğümü "Birleştirmeyi Topla"nın üzerinde bulunur. Yani birleştirmede paralel işleme kullanılmaz. Ancak "Paralel Dizin Taraması" düğümü yine de segmente yardımcı oluyor part_pkey.

Bölümlere göre bağlantı

PostgreSQL 11'de bölümlere göre bağlantı varsayılan olarak devre dışıdır: çok pahalı bir zamanlamaya sahiptir. Benzer bölümlemeye sahip tablolar bölümlere göre birleştirilebilir. Bu şekilde Postgres daha küçük karma tabloları kullanacaktır. Bölümlerin her bağlantısı paralel olabilir.

tpch=# set enable_partitionwise_join=t;
tpch=# explain (costs off) select * from prt1 t1, prt2 t2
where t1.a = t2.b and t1.b = 0 and t2.b between 0 and 10000;
                    QUERY PLAN
---------------------------------------------------
 Append
   ->  Hash Join
         Hash Cond: (t2.b = t1.a)
         ->  Seq Scan on prt2_p1 t2
               Filter: ((b >= 0) AND (b <= 10000))
         ->  Hash
               ->  Seq Scan on prt1_p1 t1
                     Filter: (b = 0)
   ->  Hash Join
         Hash Cond: (t2_1.b = t1_1.a)
         ->  Seq Scan on prt2_p2 t2_1
               Filter: ((b >= 0) AND (b <= 10000))
         ->  Hash
               ->  Seq Scan on prt1_p2 t1_1
                     Filter: (b = 0)
tpch=# set parallel_setup_cost = 1;
tpch=# set parallel_tuple_cost = 0.01;
tpch=# explain (costs off) select * from prt1 t1, prt2 t2
where t1.a = t2.b and t1.b = 0 and t2.b between 0 and 10000;
                        QUERY PLAN
-----------------------------------------------------------
 Gather
   Workers Planned: 4
   ->  Parallel Append
         ->  Parallel Hash Join
               Hash Cond: (t2_1.b = t1_1.a)
               ->  Parallel Seq Scan on prt2_p2 t2_1
                     Filter: ((b >= 0) AND (b <= 10000))
               ->  Parallel Hash
                     ->  Parallel Seq Scan on prt1_p2 t1_1
                           Filter: (b = 0)
         ->  Parallel Hash Join
               Hash Cond: (t2.b = t1.a)
               ->  Parallel Seq Scan on prt2_p1 t2
                     Filter: ((b >= 0) AND (b <= 10000))
               ->  Parallel Hash
                     ->  Parallel Seq Scan on prt1_p1 t1
                           Filter: (b = 0)

Önemli olan, bölümlerdeki bağlantının yalnızca bu bölümlerin yeterince büyük olması durumunda paralel olmasıdır.

Paralel Ekleme

Paralel Ekleme farklı iş akışlarında farklı bloklar yerine kullanılabilir. Bu genellikle UNION ALL sorgularında olur. Dezavantajı daha az paralelliktir çünkü her çalışan süreç yalnızca 1 isteği işler.

Burada çalışan 2 çalışan işlemi var, ancak 4'ü etkin.

tpch=# explain (costs off) select sum(l_quantity) as sum_qty from lineitem where l_shipdate <= date '1998-12-01' - interval '105' day union all select sum(l_quantity) as sum_qty from lineitem where l_shipdate <= date '2000-12-01' - interval '105' day;
                                           QUERY PLAN
------------------------------------------------------------------------------------------------
 Gather
   Workers Planned: 2
   ->  Parallel Append
         ->  Aggregate
               ->  Seq Scan on lineitem
                     Filter: (l_shipdate <= '2000-08-18 00:00:00'::timestamp without time zone)
         ->  Aggregate
               ->  Seq Scan on lineitem lineitem_1
                     Filter: (l_shipdate <= '1998-08-18 00:00:00'::timestamp without time zone)

En önemli değişkenler

  • WORK_MEM, yalnızca sorguları değil, işlem başına belleği de sınırlar: work_mem süreçler bağlantılar = çok fazla bellek.
  • max_parallel_workers_per_gather — yürütücü programın plandan paralel işleme için kaç çalışan işlemi kullanacağı.
  • max_worker_processes — toplam çalışan işlem sayısını sunucudaki CPU çekirdeği sayısına göre ayarlar.
  • max_parallel_workers - aynı, ancak paralel iş süreçleri için.

sonuçlar

Sürüm 9.6'dan itibaren paralel işleme, birçok satırı veya dizini tarayan karmaşık sorguların performansını büyük ölçüde artırabilir. PostgreSQL 10'da paralel işleme varsayılan olarak etkindir. Büyük bir OLTP iş yüküne sahip sunucularda bunu devre dışı bırakmayı unutmayın. Sıralı taramalar veya dizin taramaları çok fazla kaynak tüketir. Veri kümesinin tamamı hakkında bir rapor çalıştırmıyorsanız, yalnızca eksik dizinleri ekleyerek veya uygun bölümlemeyi kullanarak sorgu performansını artırabilirsiniz.

referanslar

Kaynak: habr.com

Yorum ekle