CPU moden mempunyai banyak teras. Selama bertahun-tahun, aplikasi telah menghantar pertanyaan kepada pangkalan data secara selari. Jika ia adalah pertanyaan laporan pada berbilang baris dalam jadual, ia berjalan lebih pantas apabila menggunakan berbilang CPU dan PostgreSQL telah dapat melakukannya sejak versi 9.6.
Ia mengambil masa 3 tahun untuk melaksanakan ciri pertanyaan selari - kami terpaksa menulis semula kod pada peringkat pelaksanaan pertanyaan yang berbeza. PostgreSQL 9.6 memperkenalkan infrastruktur untuk menambah baik kod tersebut. Dalam versi seterusnya, jenis pertanyaan lain dilaksanakan secara selari.
Sekatan
Jangan dayakan pelaksanaan selari jika semua teras sudah sibuk, jika tidak, permintaan lain akan menjadi perlahan.
Paling penting, pemprosesan selari dengan nilai WORK_MEM yang tinggi menggunakan banyak memori - setiap gabungan cincang atau isihan menggunakan memori work_mem.
Pertanyaan OLTP kependaman rendah tidak boleh dipercepatkan dengan pelaksanaan selari. Dan jika pertanyaan mengembalikan satu baris, pemprosesan selari hanya akan memperlahankannya.
Pembangun suka menggunakan penanda aras TPC-H. Mungkin anda mempunyai pertanyaan serupa untuk pelaksanaan selari yang sempurna.
Hanya pertanyaan PILIH tanpa penguncian predikat dilaksanakan secara selari.
Kadangkala pengindeksan yang betul adalah lebih baik daripada pengimbasan jadual berjujukan dalam mod selari.
Menjeda pertanyaan dan kursor tidak disokong.
Fungsi tetingkap dan fungsi agregat set tersusun tidak selari.
Anda tidak mendapat apa-apa dalam beban kerja I/O.
Tiada algoritma pengisihan selari. Tetapi pertanyaan dengan jenis boleh dilaksanakan secara selari dalam beberapa aspek.
Gantikan CTE (WITH ...) dengan SELECT bersarang untuk membolehkan pemprosesan selari.
Pembalut data pihak ketiga belum lagi menyokong pemprosesan selari (tetapi boleh!)
FULL OUTER JOIN tidak disokong.
max_rows melumpuhkan pemprosesan selari.
Jika pertanyaan mempunyai fungsi yang tidak ditandakan SELARI SELAMAT, ia akan menjadi satu thread.
Tahap pengasingan transaksi SERIALIZABLE melumpuhkan pemprosesan selari.
Persekitaran Ujian
Pemaju PostgreSQL cuba mengurangkan masa tindak balas pertanyaan penanda aras TPC-H. Muat turun penanda aras dan menyesuaikannya dengan PostgreSQL. Ini adalah penggunaan tidak rasmi penanda aras TPC-H - bukan untuk pangkalan data atau perbandingan perkakasan.
Muat turun TPC-H_Tools_v2.17.3.zip (atau versi yang lebih baharu) dari TPC di luar tapak.
Namakan semula makefile.suite kepada Makefile dan tukar seperti yang diterangkan di sini: https://github.com/tvondra/pg_tpch . Susun kod dengan arahan buat.
Hasilkan data: ./dbgen -s 10 mencipta pangkalan data 23 GB. Ini sudah cukup untuk melihat perbezaan prestasi pertanyaan selari dan tidak selari.
Tukar fail tbl в csv с for и sed.
Klon repositori pg_tpch dan salin fail csv в pg_tpch/dss/data.
Buat pertanyaan dengan arahan qgen.
Muatkan data ke dalam pangkalan data dengan arahan ./tpch.sh.
Pengimbasan berurutan selari
Ia mungkin lebih pantas bukan kerana bacaan selari, tetapi kerana data tersebar di banyak teras CPU. Dalam sistem pengendalian moden, fail data PostgreSQL dicache dengan baik. Dengan baca ke hadapan, adalah mungkin untuk mendapatkan blok yang lebih besar daripada storan daripada permintaan daemon PG. Oleh itu, prestasi pertanyaan tidak dihadkan oleh cakera I/O. Ia menggunakan kitaran CPU untuk:
baca baris satu demi satu daripada halaman jadual;
bandingkan nilai dan syarat rentetan WHERE.
Mari jalankan pertanyaan mudah select:
tpch=# explain analyze select l_quantity as sum_qty from lineitem where l_shipdate <= date '1998-12-01' - interval '105' day;
QUERY PLAN
--------------------------------------------------------------------------------------------------------------------------
Seq Scan on lineitem (cost=0.00..1964772.00 rows=58856235 width=5) (actual time=0.014..16951.669 rows=58839715 loops=1)
Filter: (l_shipdate <= '1998-08-18 00:00:00'::timestamp without time zone)
Rows Removed by Filter: 1146337
Planning Time: 0.203 ms
Execution Time: 19035.100 ms
Imbasan berjujukan menghasilkan terlalu banyak baris tanpa pengagregatan, jadi pertanyaan dilaksanakan oleh satu teras CPU.
Jika anda menambah SUM(), anda boleh melihat bahawa dua aliran kerja akan membantu mempercepatkan pertanyaan:
explain analyze select sum(l_quantity) as sum_qty from lineitem where l_shipdate <= date '1998-12-01' - interval '105' day;
QUERY PLAN
----------------------------------------------------------------------------------------------------------------------------------------------------
Finalize Aggregate (cost=1589702.14..1589702.15 rows=1 width=32) (actual time=8553.365..8553.365 rows=1 loops=1)
-> Gather (cost=1589701.91..1589702.12 rows=2 width=32) (actual time=8553.241..8555.067 rows=3 loops=1)
Workers Planned: 2
Workers Launched: 2
-> Partial Aggregate (cost=1588701.91..1588701.92 rows=1 width=32) (actual time=8547.546..8547.546 rows=1 loops=3)
-> Parallel Seq Scan on lineitem (cost=0.00..1527393.33 rows=24523431 width=5) (actual time=0.038..5998.417 rows=19613238 loops=3)
Filter: (l_shipdate <= '1998-08-18 00:00:00'::timestamp without time zone)
Rows Removed by Filter: 382112
Planning Time: 0.241 ms
Execution Time: 8555.131 ms
Pengagregatan selari
Nod Imbasan Seq Selari menghasilkan baris untuk pengagregatan separa. Nod "Agregat Separa" memangkas baris ini menggunakan SUM(). Pada akhirnya, kaunter SUM daripada setiap proses pekerja dikumpulkan oleh nod "Kumpul".
Keputusan akhir dikira oleh nod "Memuktamadkan Agregat". Jika anda mempunyai fungsi pengagregatan anda sendiri, jangan lupa untuk menandakannya sebagai "selari selamat".
Bilangan proses pekerja
Bilangan proses pekerja boleh ditambah tanpa memulakan semula pelayan:
explain analyze select sum(l_quantity) as sum_qty from lineitem where l_shipdate <= date '1998-12-01' - interval '105' day;
QUERY PLAN
----------------------------------------------------------------------------------------------------------------------------------------------------
Finalize Aggregate (cost=1589702.14..1589702.15 rows=1 width=32) (actual time=8553.365..8553.365 rows=1 loops=1)
-> Gather (cost=1589701.91..1589702.12 rows=2 width=32) (actual time=8553.241..8555.067 rows=3 loops=1)
Workers Planned: 2
Workers Launched: 2
-> Partial Aggregate (cost=1588701.91..1588701.92 rows=1 width=32) (actual time=8547.546..8547.546 rows=1 loops=3)
-> Parallel Seq Scan on lineitem (cost=0.00..1527393.33 rows=24523431 width=5) (actual time=0.038..5998.417 rows=19613238 loops=3)
Filter: (l_shipdate <= '1998-08-18 00:00:00'::timestamp without time zone)
Rows Removed by Filter: 382112
Planning Time: 0.241 ms
Execution Time: 8555.131 ms
Apa yang berlaku di sini? Terdapat 2 kali lebih banyak proses kerja, dan permintaan menjadi hanya 1,6599 kali lebih pantas. Pengiraannya menarik. Kami mempunyai 2 proses pekerja dan 1 ketua. Selepas perubahan ia menjadi 4+1.
Kelajuan maksimum kami daripada pemprosesan selari: 5/3 = 1,66(6) kali.
Bagaimana ia berfungsi?
Proses
Perlaksanaan permintaan sentiasa bermula dengan proses terkemuka. Pemimpin melakukan segala-galanya secara tidak selari dan beberapa pemprosesan selari. Proses lain yang melaksanakan permintaan yang sama dipanggil proses pekerja. Pemprosesan selari menggunakan infrastruktur proses pekerja latar belakang dinamik (dari versi 9.4). Memandangkan bahagian lain PostgreSQL menggunakan proses dan bukannya benang, pertanyaan dengan 3 proses pekerja boleh menjadi 4 kali lebih pantas daripada pemprosesan tradisional.
Interaksi
Proses pekerja berkomunikasi dengan ketua melalui baris gilir mesej (berdasarkan ingatan yang dikongsi). Setiap proses mempunyai 2 baris gilir: untuk ralat dan untuk tupel.
Setiap kali jadual adalah 3 kali lebih besar daripada min_parallel_(index|table)_scan_size, Postgres menambah proses pekerja. Bilangan aliran kerja tidak berdasarkan kos. Kebergantungan bulat menyukarkan pelaksanaan yang kompleks. Sebaliknya, perancang menggunakan peraturan mudah.
Dalam amalan, peraturan ini tidak selalunya sesuai untuk pengeluaran, jadi anda boleh menukar bilangan proses pekerja untuk jadual tertentu: ALTER TABLE ... SET (parallel_workers = N).
Mengapa pemprosesan selari tidak digunakan?
Selain senarai panjang sekatan, terdapat juga semakan kos:
parallel_setup_cost - untuk mengelakkan pemprosesan selari permintaan pendek. Parameter ini menganggarkan masa untuk menyediakan memori, memulakan proses dan pertukaran data awal.
parallel_tuple_cost: komunikasi antara pemimpin dan pekerja boleh ditangguhkan mengikut kadar bilangan tupel daripada proses kerja. Parameter ini mengira kos pertukaran data.
Sambungan Gelung Bersarang
PostgreSQL 9.6+ может выполнять вложенные циклы параллельно — это простая операция.
explain (costs off) select c_custkey, count(o_orderkey)
from customer left outer join orders on
c_custkey = o_custkey and o_comment not like '%special%deposits%'
group by c_custkey;
QUERY PLAN
--------------------------------------------------------------------------------------
Finalize GroupAggregate
Group Key: customer.c_custkey
-> Gather Merge
Workers Planned: 4
-> Partial GroupAggregate
Group Key: customer.c_custkey
-> Nested Loop Left Join
-> Parallel Index Only Scan using customer_pkey on customer
-> Index Scan using idx_orders_custkey on orders
Index Cond: (customer.c_custkey = o_custkey)
Filter: ((o_comment)::text !~~ '%special%deposits%'::text)
Pengumpulan berlaku pada peringkat terakhir, jadi Nested Loop Left Join ialah operasi selari. Imbasan Indeks Selari Sahaja diperkenalkan hanya dalam versi 10. Ia berfungsi serupa dengan imbasan bersiri selari. keadaan c_custkey = o_custkey membaca satu pesanan setiap rentetan pelanggan. Jadi ia tidak selari.
Hash Sertai
Setiap proses pekerja mencipta jadual cincang sendiri sehingga PostgreSQL 11. Dan jika terdapat lebih daripada empat proses ini, prestasi tidak akan bertambah baik. Dalam versi baharu, jadual cincang dikongsi. Setiap proses pekerja boleh menggunakan WORK_MEM untuk membuat jadual cincang.
select
l_shipmode,
sum(case
when o_orderpriority = '1-URGENT'
or o_orderpriority = '2-HIGH'
then 1
else 0
end) as high_line_count,
sum(case
when o_orderpriority <> '1-URGENT'
and o_orderpriority <> '2-HIGH'
then 1
else 0
end) as low_line_count
from
orders,
lineitem
where
o_orderkey = l_orderkey
and l_shipmode in ('MAIL', 'AIR')
and l_commitdate < l_receiptdate
and l_shipdate < l_commitdate
and l_receiptdate >= date '1996-01-01'
and l_receiptdate < date '1996-01-01' + interval '1' year
group by
l_shipmode
order by
l_shipmode
LIMIT 1;
QUERY PLAN
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Limit (cost=1964755.66..1964961.44 rows=1 width=27) (actual time=7579.592..7922.997 rows=1 loops=1)
-> Finalize GroupAggregate (cost=1964755.66..1966196.11 rows=7 width=27) (actual time=7579.590..7579.591 rows=1 loops=1)
Group Key: lineitem.l_shipmode
-> Gather Merge (cost=1964755.66..1966195.83 rows=28 width=27) (actual time=7559.593..7922.319 rows=6 loops=1)
Workers Planned: 4
Workers Launched: 4
-> Partial GroupAggregate (cost=1963755.61..1965192.44 rows=7 width=27) (actual time=7548.103..7564.592 rows=2 loops=5)
Group Key: lineitem.l_shipmode
-> Sort (cost=1963755.61..1963935.20 rows=71838 width=27) (actual time=7530.280..7539.688 rows=62519 loops=5)
Sort Key: lineitem.l_shipmode
Sort Method: external merge Disk: 2304kB
Worker 0: Sort Method: external merge Disk: 2064kB
Worker 1: Sort Method: external merge Disk: 2384kB
Worker 2: Sort Method: external merge Disk: 2264kB
Worker 3: Sort Method: external merge Disk: 2336kB
-> Parallel Hash Join (cost=382571.01..1957960.99 rows=71838 width=27) (actual time=7036.917..7499.692 rows=62519 loops=5)
Hash Cond: (lineitem.l_orderkey = orders.o_orderkey)
-> Parallel Seq Scan on lineitem (cost=0.00..1552386.40 rows=71838 width=19) (actual time=0.583..4901.063 rows=62519 loops=5)
Filter: ((l_shipmode = ANY ('{MAIL,AIR}'::bpchar[])) AND (l_commitdate < l_receiptdate) AND (l_shipdate < l_commitdate) AND (l_receiptdate >= '1996-01-01'::date) AND (l_receiptdate < '1997-01-01 00:00:00'::timestamp without time zone))
Rows Removed by Filter: 11934691
-> Parallel Hash (cost=313722.45..313722.45 rows=3750045 width=20) (actual time=2011.518..2011.518 rows=3000000 loops=5)
Buckets: 65536 Batches: 256 Memory Usage: 3840kB
-> Parallel Seq Scan on orders (cost=0.00..313722.45 rows=3750045 width=20) (actual time=0.029..995.948 rows=3000000 loops=5)
Planning Time: 0.977 ms
Execution Time: 7923.770 ms
Pertanyaan 12 daripada TPC-H jelas menunjukkan sambungan cincang selari. Setiap proses pekerja menyumbang kepada penciptaan jadual cincang biasa.
Gabung Sertai
Cantuman gabungan bersifat tidak selari. Jangan risau jika ini adalah langkah terakhir pertanyaan - ia masih boleh dijalankan secara selari.
-- Query 2 from TPC-H
explain (costs off) select s_acctbal, s_name, n_name, p_partkey, p_mfgr, s_address, s_phone, s_comment
from part, supplier, partsupp, nation, region
where
p_partkey = ps_partkey
and s_suppkey = ps_suppkey
and p_size = 36
and p_type like '%BRASS'
and s_nationkey = n_nationkey
and n_regionkey = r_regionkey
and r_name = 'AMERICA'
and ps_supplycost = (
select
min(ps_supplycost)
from partsupp, supplier, nation, region
where
p_partkey = ps_partkey
and s_suppkey = ps_suppkey
and s_nationkey = n_nationkey
and n_regionkey = r_regionkey
and r_name = 'AMERICA'
)
order by s_acctbal desc, n_name, s_name, p_partkey
LIMIT 100;
QUERY PLAN
----------------------------------------------------------------------------------------------------------
Limit
-> Sort
Sort Key: supplier.s_acctbal DESC, nation.n_name, supplier.s_name, part.p_partkey
-> Merge Join
Merge Cond: (part.p_partkey = partsupp.ps_partkey)
Join Filter: (partsupp.ps_supplycost = (SubPlan 1))
-> Gather Merge
Workers Planned: 4
-> Parallel Index Scan using <strong>part_pkey</strong> on part
Filter: (((p_type)::text ~~ '%BRASS'::text) AND (p_size = 36))
-> Materialize
-> Sort
Sort Key: partsupp.ps_partkey
-> Nested Loop
-> Nested Loop
Join Filter: (nation.n_regionkey = region.r_regionkey)
-> Seq Scan on region
Filter: (r_name = 'AMERICA'::bpchar)
-> Hash Join
Hash Cond: (supplier.s_nationkey = nation.n_nationkey)
-> Seq Scan on supplier
-> Hash
-> Seq Scan on nation
-> Index Scan using idx_partsupp_suppkey on partsupp
Index Cond: (ps_suppkey = supplier.s_suppkey)
SubPlan 1
-> Aggregate
-> Nested Loop
Join Filter: (nation_1.n_regionkey = region_1.r_regionkey)
-> Seq Scan on region region_1
Filter: (r_name = 'AMERICA'::bpchar)
-> Nested Loop
-> Nested Loop
-> Index Scan using idx_partsupp_partkey on partsupp partsupp_1
Index Cond: (part.p_partkey = ps_partkey)
-> Index Scan using supplier_pkey on supplier supplier_1
Index Cond: (s_suppkey = partsupp_1.ps_suppkey)
-> Index Scan using nation_pkey on nation nation_1
Index Cond: (n_nationkey = supplier_1.s_nationkey)
Nod "Merge Join" terletak di atas "Gather Merge". Jadi penggabungan tidak menggunakan pemprosesan selari. Tetapi nod "Imbasan Indeks Selari" masih membantu dengan segmen tersebut part_pkey.
Sambungan mengikut bahagian
Dalam PostgreSQL 11 sambungan mengikut bahagian dilumpuhkan secara lalai: ia mempunyai penjadualan yang sangat mahal. Jadual dengan pembahagian yang serupa boleh digabungkan dengan pembahagian demi pembahagian. Dengan cara ini Postgres akan menggunakan jadual cincang yang lebih kecil. Setiap sambungan bahagian boleh selari.
tpch=# set enable_partitionwise_join=t;
tpch=# explain (costs off) select * from prt1 t1, prt2 t2
where t1.a = t2.b and t1.b = 0 and t2.b between 0 and 10000;
QUERY PLAN
---------------------------------------------------
Append
-> Hash Join
Hash Cond: (t2.b = t1.a)
-> Seq Scan on prt2_p1 t2
Filter: ((b >= 0) AND (b <= 10000))
-> Hash
-> Seq Scan on prt1_p1 t1
Filter: (b = 0)
-> Hash Join
Hash Cond: (t2_1.b = t1_1.a)
-> Seq Scan on prt2_p2 t2_1
Filter: ((b >= 0) AND (b <= 10000))
-> Hash
-> Seq Scan on prt1_p2 t1_1
Filter: (b = 0)
tpch=# set parallel_setup_cost = 1;
tpch=# set parallel_tuple_cost = 0.01;
tpch=# explain (costs off) select * from prt1 t1, prt2 t2
where t1.a = t2.b and t1.b = 0 and t2.b between 0 and 10000;
QUERY PLAN
-----------------------------------------------------------
Gather
Workers Planned: 4
-> Parallel Append
-> Parallel Hash Join
Hash Cond: (t2_1.b = t1_1.a)
-> Parallel Seq Scan on prt2_p2 t2_1
Filter: ((b >= 0) AND (b <= 10000))
-> Parallel Hash
-> Parallel Seq Scan on prt1_p2 t1_1
Filter: (b = 0)
-> Parallel Hash Join
Hash Cond: (t2.b = t1.a)
-> Parallel Seq Scan on prt2_p1 t2
Filter: ((b >= 0) AND (b <= 10000))
-> Parallel Hash
-> Parallel Seq Scan on prt1_p1 t1
Filter: (b = 0)
Perkara utama ialah sambungan dalam bahagian adalah selari hanya jika bahagian ini cukup besar.
Lampiran Selari
Lampiran Selari boleh digunakan dan bukannya blok yang berbeza dalam aliran kerja yang berbeza. Ini biasanya berlaku dengan pertanyaan UNION ALL. Kelemahannya ialah kurang selari, kerana setiap proses pekerja hanya memproses 1 permintaan.
Terdapat 2 proses pekerja berjalan di sini, walaupun 4 didayakan.
tpch=# explain (costs off) select sum(l_quantity) as sum_qty from lineitem where l_shipdate <= date '1998-12-01' - interval '105' day union all select sum(l_quantity) as sum_qty from lineitem where l_shipdate <= date '2000-12-01' - interval '105' day;
QUERY PLAN
------------------------------------------------------------------------------------------------
Gather
Workers Planned: 2
-> Parallel Append
-> Aggregate
-> Seq Scan on lineitem
Filter: (l_shipdate <= '2000-08-18 00:00:00'::timestamp without time zone)
-> Aggregate
-> Seq Scan on lineitem lineitem_1
Filter: (l_shipdate <= '1998-08-18 00:00:00'::timestamp without time zone)
Pembolehubah yang paling penting
WORK_MEM mengehadkan memori setiap proses, bukan hanya pertanyaan: work_mem proses sambungan = banyak ingatan.
max_parallel_workers_per_gather — berapa ramai pekerja memproses program yang akan digunakan untuk pemprosesan selari daripada pelan.
max_worker_processes — melaraskan jumlah bilangan proses pekerja kepada bilangan teras CPU pada pelayan.
Mulai versi 9.6, pemprosesan selari boleh meningkatkan prestasi pertanyaan kompleks yang mengimbas banyak baris atau indeks. Dalam PostgreSQL 10, pemprosesan selari didayakan secara lalai. Ingat untuk melumpuhkannya pada pelayan dengan beban kerja OLTP yang besar. Imbasan berurutan atau imbasan indeks menggunakan banyak sumber. Jika anda tidak menjalankan laporan pada keseluruhan set data, anda boleh meningkatkan prestasi pertanyaan dengan hanya menambah indeks yang hilang atau menggunakan pembahagian yang betul.