Paralelaj demandoj en PostgreSQL

Paralelaj demandoj en PostgreSQL
Modernaj CPUoj havas multajn kernojn. De jaroj, aplikaĵoj sendas demandojn al datumbazoj paralele. Se ĝi estas raporta demando pri pluraj vicoj en tabelo, ĝi funkcias pli rapide kiam oni uzas plurajn CPUojn, kaj PostgreSQL povis fari tion ekde versio 9.6.

Necesis 3 jaroj por efektivigi la paralelan demandan funkcion - ni devis reverki la kodon en malsamaj stadioj de demanda ekzekuto. PostgreSQL 9.6 lanĉis infrastrukturon por plu plibonigi la kodon. En postaj versioj, aliaj specoj de demandoj estas efektivigitaj paralele.

Restriktoj

  • Ne ebligu paralelan ekzekuton se ĉiuj kernoj jam estas okupataj, alie aliaj petoj malrapidiĝos.
  • Plej grave, paralela prilaborado kun altaj WORK_MEM-valoroj uzas multan memoron - ĉiu hash-kuniĝo aŭ ordigo okupas work_mem-memoron.
  • Malalta latencia OLTP-demandoj ne povas esti akcelitaj per paralela ekzekuto. Kaj se la demando liveras unu vicon, paralela prilaborado nur malrapidigos ĝin.
  • Programistoj amas uzi la komparnormon de TPC-H. Eble vi havas similajn demandojn por perfekta paralela ekzekuto.
  • Nur SELECT-demandoj sen predikata ŝlosado estas ekzekutitaj paralele.
  • Foje taŭga indeksado estas pli bona ol sinsekva tabelskanado en paralela reĝimo.
  • Paŭzi demandojn kaj kursorojn ne estas subtenataj.
  • Fenestraj funkcioj kaj ordigitaj aro-agregaj funkcioj ne estas paralelaj.
  • Vi gajnas nenion en la I/O-laborŝarĝo.
  • Ne ekzistas paralelaj ordigaj algoritmoj. Sed demandoj kun specoj povas esti efektivigitaj paralele en iuj aspektoj.
  • Anstataŭigi CTE (KUN ...) per nestita SELECT por ebligi paralelan prilaboradon.
  • Triaj datumaj envolvaĵoj ankoraŭ ne subtenas paralelan prilaboradon (sed ili povus!)
  • PLENA EKSTERA ALIGO ne estas subtenata.
  • max_rows malŝaltas paralelan prilaboradon.
  • Se demando havas funkcion kiu ne estas markita PARALELA SAFE, ĝi estos unufadena.
  • La SERIALIZABLE transakcia izoliteco malfunkciigas paralelan pretigon.

Testa Medio

PostgreSQL-programistoj provis redukti la respondtempon de TPC-H-kompar-demandoj. Elŝutu la komparnormon kaj adapti ĝin al PostgreSQL. Ĉi tio estas neoficiala uzo de la komparnormo TPC-H - ne por datumbazo aŭ aparatara komparo.

  1. Elŝutu TPC-H_Tools_v2.17.3.zip (aŭ pli nova versio) de TPC eksterejo.
  2. Alinomigu makefile.suite al Makefile kaj ŝanĝu kiel priskribite ĉi tie: https://github.com/tvondra/pg_tpch . Kompilu la kodon per la make komando.
  3. Generu datumojn: ./dbgen -s 10 kreas datumbazon de 23 GB. Ĉi tio sufiĉas por vidi la diferencon en la agado de paralelaj kaj ne-paralelaj demandoj.
  4. Konverti dosierojn tbl в csv с for и sed.
  5. Klonu la deponejon pg_tpch kaj kopiu la dosierojn csv в pg_tpch/dss/data.
  6. Kreu demandojn per komando qgen.
  7. Ŝarĝu datumojn en la datumbazon per la komando ./tpch.sh.

Paralela sinsekva skanado

Ĝi povas esti pli rapida ne pro paralela legado, sed ĉar la datumoj disvastiĝas tra multaj CPU-kernoj. En modernaj operaciumoj, PostgreSQL-datumdosieroj estas bone konservitaj en kaŝmemoro. Kun legado antaŭen, eblas akiri pli grandan blokon de stokado ol la petoj de la PG-demono. Tial, demanda rendimento ne estas limigita de disko I/O. Ĝi konsumas CPU-ciklojn por:

  • legi vicojn unuope el tabelpaĝoj;
  • komparu kordvalorojn kaj kondiĉojn WHERE.

Ni faru simplan demandon select:

tpch=# explain analyze select l_quantity as sum_qty from lineitem where l_shipdate <= date '1998-12-01' - interval '105' day;
QUERY PLAN
--------------------------------------------------------------------------------------------------------------------------
Seq Scan on lineitem (cost=0.00..1964772.00 rows=58856235 width=5) (actual time=0.014..16951.669 rows=58839715 loops=1)
Filter: (l_shipdate <= '1998-08-18 00:00:00'::timestamp without time zone)
Rows Removed by Filter: 1146337
Planning Time: 0.203 ms
Execution Time: 19035.100 ms

La sinsekva skanado produktas tro multajn vicojn sen agregado, do la demando estas efektivigita per ununura CPU-kerno.

Se vi aldonas SUM(), vi povas vidi, ke du laborfluoj helpos akceli la demandon:

explain analyze select sum(l_quantity) as sum_qty from lineitem where l_shipdate <= date '1998-12-01' - interval '105' day;
QUERY PLAN
----------------------------------------------------------------------------------------------------------------------------------------------------
Finalize Aggregate (cost=1589702.14..1589702.15 rows=1 width=32) (actual time=8553.365..8553.365 rows=1 loops=1)
-> Gather (cost=1589701.91..1589702.12 rows=2 width=32) (actual time=8553.241..8555.067 rows=3 loops=1)
Workers Planned: 2
Workers Launched: 2
-> Partial Aggregate (cost=1588701.91..1588701.92 rows=1 width=32) (actual time=8547.546..8547.546 rows=1 loops=3)
-> Parallel Seq Scan on lineitem (cost=0.00..1527393.33 rows=24523431 width=5) (actual time=0.038..5998.417 rows=19613238 loops=3)
Filter: (l_shipdate <= '1998-08-18 00:00:00'::timestamp without time zone)
Rows Removed by Filter: 382112
Planning Time: 0.241 ms
Execution Time: 8555.131 ms

Paralela agregado

La Parallel Seq Scan nodo produktas vicojn por parta agregado. La "Parta Agregado" nodo tajlas ĉi tiujn liniojn uzante SUM(). Ĉe la fino, la SUM-nombrilo de ĉiu laborista procezo estas kolektita per la nodo "Kunvenigi".

La fina rezulto estas kalkulita per la nodo "Finalize Agregate". Se vi havas viajn proprajn agregajn funkciojn, ne forgesu marki ilin kiel "paralela sekura".

Nombro de laboristaj procezoj

La nombro da laborprocezoj povas esti pliigita sen rekomenco de la servilo:

explain analyze select sum(l_quantity) as sum_qty from lineitem where l_shipdate <= date '1998-12-01' - interval '105' day;
QUERY PLAN
----------------------------------------------------------------------------------------------------------------------------------------------------
Finalize Aggregate (cost=1589702.14..1589702.15 rows=1 width=32) (actual time=8553.365..8553.365 rows=1 loops=1)
-> Gather (cost=1589701.91..1589702.12 rows=2 width=32) (actual time=8553.241..8555.067 rows=3 loops=1)
Workers Planned: 2
Workers Launched: 2
-> Partial Aggregate (cost=1588701.91..1588701.92 rows=1 width=32) (actual time=8547.546..8547.546 rows=1 loops=3)
-> Parallel Seq Scan on lineitem (cost=0.00..1527393.33 rows=24523431 width=5) (actual time=0.038..5998.417 rows=19613238 loops=3)
Filter: (l_shipdate <= '1998-08-18 00:00:00'::timestamp without time zone)
Rows Removed by Filter: 382112
Planning Time: 0.241 ms
Execution Time: 8555.131 ms

Kio okazas ĉi tie? Estis 2-oble pli da laborprocezoj, kaj la peto fariĝis nur 1,6599-oble pli rapida. La kalkuloj estas interesaj. Ni havis 2 laboristajn procezojn kaj 1 gvidanton. Post la ŝanĝo ĝi fariĝis 4+1.

Nia maksimuma rapido de paralela prilaborado: 5/3 = 1,66(6) fojojn.

Kiel ĝi funkcias?

Procezoj

Peto-ekzekuto ĉiam komenciĝas per la gvida procezo. La gvidanto faras ĉion neparalelan kaj iom da paralela prilaborado. Aliaj procezoj, kiuj plenumas la samajn petojn, estas nomitaj laborprocezoj. Paralela pretigo uzas infrastrukturon dinamikaj fonaj laboristaj procezoj (el versio 9.4). Ĉar aliaj partoj de PostgreSQL uzas procezojn prefere ol fadenoj, demando kun 3 laborprocezoj povus esti 4 fojojn pli rapida ol tradicia prilaborado.

Interago

Laboristprocezoj komunikas kun la gvidanto per mesaĝvico (surbaze de komuna memoro). Ĉiu procezo havas 2 vostojn: por eraroj kaj por opoj.

Kiom da laborfluoj necesas?

La minimuma limo estas specifita de la parametro max_parallel_workers_per_gather. La petokuristo tiam prenas laborprocezojn de la naĝejo limigita per la parametro max_parallel_workers size. La lasta limigo estas max_worker_processes, tio estas, la totala nombro de fonaj procezoj.

Se ne eblis asigni laboristan procezon, prilaborado estos unu-proceza.

La demandplanisto povas redukti laborfluojn depende de la grandeco de la tabelo aŭ indekso. Estas parametroj por ĉi tio min_parallel_table_scan_size и min_parallel_index_scan_size.

set min_parallel_table_scan_size='8MB'
8MB table => 1 worker
24MB table => 2 workers
72MB table => 3 workers
x => log(x / min_parallel_table_scan_size) / log(3) + 1 worker

Ĉiufoje la tablo estas 3 fojojn pli granda ol min_parallel_(index|table)_scan_size, Postgres aldonas laborprocezon. La nombro da laborfluoj ne baziĝas sur kostoj. Cirkla dependeco malfaciligas kompleksajn efektivigojn. Anstataŭe, la planisto uzas simplajn regulojn.

En la praktiko, ĉi tiuj reguloj ne ĉiam taŭgas por produktado, do vi povas ŝanĝi la nombron da laborprocezoj por specifa tabelo: ALTER TABLE ... SET (parallel_workers = N).

Kial paralela prilaborado ne estas uzata?

Krom la longa listo de restriktoj, ekzistas ankaŭ kostkontroloj:

parallel_setup_cost - eviti paralelan traktadon de mallongaj petoj. Ĉi tiu parametro taksas la tempon por prepari memoron, komenci la procezon kaj komencan datumŝanĝon.

parallel_tuple_cost: komunikado inter la gvidanto kaj laboristoj povas esti prokrastita proporcie al la nombro da opoj de laborprocezoj. Ĉi tiu parametro kalkulas la koston de interŝanĝo de datumoj.

Nestita Buklo Kuniĝoj

PostgreSQL 9.6+ может выполнять вложенные циклы параллельно — это простая операция.

explain (costs off) select c_custkey, count(o_orderkey)
                from    customer left outer join orders on
                                c_custkey = o_custkey and o_comment not like '%special%deposits%'
                group by c_custkey;
                                      QUERY PLAN
--------------------------------------------------------------------------------------
 Finalize GroupAggregate
   Group Key: customer.c_custkey
   ->  Gather Merge
         Workers Planned: 4
         ->  Partial GroupAggregate
               Group Key: customer.c_custkey
               ->  Nested Loop Left Join
                     ->  Parallel Index Only Scan using customer_pkey on customer
                     ->  Index Scan using idx_orders_custkey on orders
                           Index Cond: (customer.c_custkey = o_custkey)
                           Filter: ((o_comment)::text !~~ '%special%deposits%'::text)

La kolekto okazas ĉe la lasta etapo, do Nested Loop Left Join estas paralela operacio. Paralela Index Only Scan estis lanĉita nur en versio 10. Ĝi funkcias simile al paralela seria skanado. Kondiĉo c_custkey = o_custkey legas unu mendon per klienta ĉeno. Do ĝi ne estas paralela.

Hash Aliĝi

Ĉiu laborprocezo kreas sian propran hashtabelon ĝis PostgreSQL 11. Kaj se estas pli ol kvar el ĉi tiuj procezoj, rendimento ne pliboniĝos. En la nova versio, la hashtabelo estas dividita. Ĉiu laborprocezo povas uzi WORK_MEM por krei hashtabelon.

select
        l_shipmode,
        sum(case
                when o_orderpriority = '1-URGENT'
                        or o_orderpriority = '2-HIGH'
                        then 1
                else 0
        end) as high_line_count,
        sum(case
                when o_orderpriority <> '1-URGENT'
                        and o_orderpriority <> '2-HIGH'
                        then 1
                else 0
        end) as low_line_count
from
        orders,
        lineitem
where
        o_orderkey = l_orderkey
        and l_shipmode in ('MAIL', 'AIR')
        and l_commitdate < l_receiptdate
        and l_shipdate < l_commitdate
        and l_receiptdate >= date '1996-01-01'
        and l_receiptdate < date '1996-01-01' + interval '1' year
group by
        l_shipmode
order by
        l_shipmode
LIMIT 1;
                                                                                                                                    QUERY PLAN
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
 Limit  (cost=1964755.66..1964961.44 rows=1 width=27) (actual time=7579.592..7922.997 rows=1 loops=1)
   ->  Finalize GroupAggregate  (cost=1964755.66..1966196.11 rows=7 width=27) (actual time=7579.590..7579.591 rows=1 loops=1)
         Group Key: lineitem.l_shipmode
         ->  Gather Merge  (cost=1964755.66..1966195.83 rows=28 width=27) (actual time=7559.593..7922.319 rows=6 loops=1)
               Workers Planned: 4
               Workers Launched: 4
               ->  Partial GroupAggregate  (cost=1963755.61..1965192.44 rows=7 width=27) (actual time=7548.103..7564.592 rows=2 loops=5)
                     Group Key: lineitem.l_shipmode
                     ->  Sort  (cost=1963755.61..1963935.20 rows=71838 width=27) (actual time=7530.280..7539.688 rows=62519 loops=5)
                           Sort Key: lineitem.l_shipmode
                           Sort Method: external merge  Disk: 2304kB
                           Worker 0:  Sort Method: external merge  Disk: 2064kB
                           Worker 1:  Sort Method: external merge  Disk: 2384kB
                           Worker 2:  Sort Method: external merge  Disk: 2264kB
                           Worker 3:  Sort Method: external merge  Disk: 2336kB
                           ->  Parallel Hash Join  (cost=382571.01..1957960.99 rows=71838 width=27) (actual time=7036.917..7499.692 rows=62519 loops=5)
                                 Hash Cond: (lineitem.l_orderkey = orders.o_orderkey)
                                 ->  Parallel Seq Scan on lineitem  (cost=0.00..1552386.40 rows=71838 width=19) (actual time=0.583..4901.063 rows=62519 loops=5)
                                       Filter: ((l_shipmode = ANY ('{MAIL,AIR}'::bpchar[])) AND (l_commitdate < l_receiptdate) AND (l_shipdate < l_commitdate) AND (l_receiptdate >= '1996-01-01'::date) AND (l_receiptdate < '1997-01-01 00:00:00'::timestamp without time zone))
                                       Rows Removed by Filter: 11934691
                                 ->  Parallel Hash  (cost=313722.45..313722.45 rows=3750045 width=20) (actual time=2011.518..2011.518 rows=3000000 loops=5)
                                       Buckets: 65536  Batches: 256  Memory Usage: 3840kB
                                       ->  Parallel Seq Scan on orders  (cost=0.00..313722.45 rows=3750045 width=20) (actual time=0.029..995.948 rows=3000000 loops=5)
 Planning Time: 0.977 ms
 Execution Time: 7923.770 ms

Demando 12 de TPC-H klare montras paralelan hash-konekton. Ĉiu laborprocezo kontribuas al la kreado de komuna hashtabelo.

Kunfandi Aliĝi

Kunfanda kunigo estas ne-paralela en naturo. Ne zorgu, se ĉi tio estas la lasta paŝo de la demando - ĝi ankoraŭ povas ruliĝi paralele.

-- Query 2 from TPC-H
explain (costs off) select s_acctbal, s_name, n_name, p_partkey, p_mfgr, s_address, s_phone, s_comment
from    part, supplier, partsupp, nation, region
where
        p_partkey = ps_partkey
        and s_suppkey = ps_suppkey
        and p_size = 36
        and p_type like '%BRASS'
        and s_nationkey = n_nationkey
        and n_regionkey = r_regionkey
        and r_name = 'AMERICA'
        and ps_supplycost = (
                select
                        min(ps_supplycost)
                from    partsupp, supplier, nation, region
                where
                        p_partkey = ps_partkey
                        and s_suppkey = ps_suppkey
                        and s_nationkey = n_nationkey
                        and n_regionkey = r_regionkey
                        and r_name = 'AMERICA'
        )
order by s_acctbal desc, n_name, s_name, p_partkey
LIMIT 100;
                                                QUERY PLAN
----------------------------------------------------------------------------------------------------------
 Limit
   ->  Sort
         Sort Key: supplier.s_acctbal DESC, nation.n_name, supplier.s_name, part.p_partkey
         ->  Merge Join
               Merge Cond: (part.p_partkey = partsupp.ps_partkey)
               Join Filter: (partsupp.ps_supplycost = (SubPlan 1))
               ->  Gather Merge
                     Workers Planned: 4
                     ->  Parallel Index Scan using <strong>part_pkey</strong> on part
                           Filter: (((p_type)::text ~~ '%BRASS'::text) AND (p_size = 36))
               ->  Materialize
                     ->  Sort
                           Sort Key: partsupp.ps_partkey
                           ->  Nested Loop
                                 ->  Nested Loop
                                       Join Filter: (nation.n_regionkey = region.r_regionkey)
                                       ->  Seq Scan on region
                                             Filter: (r_name = 'AMERICA'::bpchar)
                                       ->  Hash Join
                                             Hash Cond: (supplier.s_nationkey = nation.n_nationkey)
                                             ->  Seq Scan on supplier
                                             ->  Hash
                                                   ->  Seq Scan on nation
                                 ->  Index Scan using idx_partsupp_suppkey on partsupp
                                       Index Cond: (ps_suppkey = supplier.s_suppkey)
               SubPlan 1
                 ->  Aggregate
                       ->  Nested Loop
                             Join Filter: (nation_1.n_regionkey = region_1.r_regionkey)
                             ->  Seq Scan on region region_1
                                   Filter: (r_name = 'AMERICA'::bpchar)
                             ->  Nested Loop
                                   ->  Nested Loop
                                         ->  Index Scan using idx_partsupp_partkey on partsupp partsupp_1
                                               Index Cond: (part.p_partkey = ps_partkey)
                                         ->  Index Scan using supplier_pkey on supplier supplier_1
                                               Index Cond: (s_suppkey = partsupp_1.ps_suppkey)
                                   ->  Index Scan using nation_pkey on nation nation_1
                                         Index Cond: (n_nationkey = supplier_1.s_nationkey)

La nodo "Merge Join" situas super la "Gather Merge". Do kunfandado ne uzas paralelan prilaboradon. Sed la nodo "Paralela Indeksa Skanado" ankoraŭ helpas kun la segmento part_pkey.

Konekto laŭ sekcioj

En PostgreSQL 11 konekto laŭ sekcioj malebligita defaŭlte: ĝi havas tre multekostan planadon. Tabeloj kun simila dispartigo povas esti kunigitaj sekcio post dispartigo. Tiel Postgres uzos pli malgrandajn hashtablojn. Ĉiu ligo de sekcioj povas esti paralela.

tpch=# set enable_partitionwise_join=t;
tpch=# explain (costs off) select * from prt1 t1, prt2 t2
where t1.a = t2.b and t1.b = 0 and t2.b between 0 and 10000;
                    QUERY PLAN
---------------------------------------------------
 Append
   ->  Hash Join
         Hash Cond: (t2.b = t1.a)
         ->  Seq Scan on prt2_p1 t2
               Filter: ((b >= 0) AND (b <= 10000))
         ->  Hash
               ->  Seq Scan on prt1_p1 t1
                     Filter: (b = 0)
   ->  Hash Join
         Hash Cond: (t2_1.b = t1_1.a)
         ->  Seq Scan on prt2_p2 t2_1
               Filter: ((b >= 0) AND (b <= 10000))
         ->  Hash
               ->  Seq Scan on prt1_p2 t1_1
                     Filter: (b = 0)
tpch=# set parallel_setup_cost = 1;
tpch=# set parallel_tuple_cost = 0.01;
tpch=# explain (costs off) select * from prt1 t1, prt2 t2
where t1.a = t2.b and t1.b = 0 and t2.b between 0 and 10000;
                        QUERY PLAN
-----------------------------------------------------------
 Gather
   Workers Planned: 4
   ->  Parallel Append
         ->  Parallel Hash Join
               Hash Cond: (t2_1.b = t1_1.a)
               ->  Parallel Seq Scan on prt2_p2 t2_1
                     Filter: ((b >= 0) AND (b <= 10000))
               ->  Parallel Hash
                     ->  Parallel Seq Scan on prt1_p2 t1_1
                           Filter: (b = 0)
         ->  Parallel Hash Join
               Hash Cond: (t2.b = t1.a)
               ->  Parallel Seq Scan on prt2_p1 t2
                     Filter: ((b >= 0) AND (b <= 10000))
               ->  Parallel Hash
                     ->  Parallel Seq Scan on prt1_p1 t1
                           Filter: (b = 0)

La ĉefa afero estas, ke la konekto en sekcioj estas paralela nur se ĉi tiuj sekcioj estas sufiĉe grandaj.

Paralela Aldono

Paralela Aldono povas esti uzata anstataŭ malsamaj blokoj en malsamaj laborfluoj. Ĉi tio kutime okazas kun UNION ALL-demandoj. La malavantaĝo estas malpli da paraleleco, ĉar ĉiu laborprocezo nur prilaboras 1 peton.

Estas 2 laborprocezoj kurantaj ĉi tie, kvankam 4 estas ebligitaj.

tpch=# explain (costs off) select sum(l_quantity) as sum_qty from lineitem where l_shipdate <= date '1998-12-01' - interval '105' day union all select sum(l_quantity) as sum_qty from lineitem where l_shipdate <= date '2000-12-01' - interval '105' day;
                                           QUERY PLAN
------------------------------------------------------------------------------------------------
 Gather
   Workers Planned: 2
   ->  Parallel Append
         ->  Aggregate
               ->  Seq Scan on lineitem
                     Filter: (l_shipdate <= '2000-08-18 00:00:00'::timestamp without time zone)
         ->  Aggregate
               ->  Seq Scan on lineitem lineitem_1
                     Filter: (l_shipdate <= '1998-08-18 00:00:00'::timestamp without time zone)

La plej gravaj variabloj

  • WORK_MEM limigas memoron per procezo, ne nur demandojn: work_mem procezoj ligoj = multe da memoro.
  • max_parallel_workers_per_gather — kiom da laboristo prilaboras la ekzekutanta programo uzos por paralela prilaborado de la plano.
  • max_worker_processes — ĝustigas la totalan nombron da laborprocezoj al la nombro da CPU-kernoj sur la servilo.
  • max_parallel_workers - la sama, sed por paralelaj laborprocezoj.

Rezultoj

Ekde la versio 9.6, paralela prilaborado povas multe plibonigi la agadon de kompleksaj demandoj, kiuj skanas multajn vicojn aŭ indeksojn. En PostgreSQL 10, paralela prilaborado estas ebligita defaŭlte. Memoru malŝalti ĝin en serviloj kun granda laborkvanto de OLTP. Sinsekvaj skanadoj aŭ indekskanadoj konsumas multajn rimedojn. Se vi ne funkcias raporton pri la tuta datumaro, vi povas plibonigi demandan rendimenton simple aldonante mankantajn indeksojn aŭ uzante taŭgan dispartigo.

referencoj

fonto: www.habr.com

Aldoni komenton