Модерни процесори имају много језгара. Већ годинама апликације паралелно шаљу упите базама података. Ако је то упит за извештај на више редова у табели, он ради брже када се користи више ЦПУ-а, а ПостгреСКЛ је то могао да уради од верзије 9.6.
Било је потребно 3 године да имплементирамо функцију паралелног упита – морали смо да поново напишемо код у различитим фазама извршења упита. ПостгреСКЛ 9.6 је увео инфраструктуру за даље побољшање кода. У наредним верзијама, други типови упита се извршавају паралелно.
Ограничења
Не омогућавајте паралелно извршавање ако су сва језгра већ заузета, иначе ће се други захтеви успорити.
Што је најважније, паралелна обрада са високим ВОРК_МЕМ вредностима користи много меморије - свако хеш придруживање или сортирање заузима ворк_мем меморију.
ОЛТП упити са малим кашњењем не могу се убрзати паралелним извршавањем. А ако упит врати један ред, паралелна обрада ће га само успорити.
Програмери воле да користе ТПЦ-Х бенцхмарк. Можда имате сличне упите за савршено паралелно извршење.
Само СЕЛЕЦТ упити без закључавања предиката се извршавају паралелно.
Понекад је правилно индексирање боље од секвенцијалног скенирања табела у паралелном режиму.
Паузирање упита и курсора није подржано.
Функције прозора и агрегатне функције уређеног скупа нису паралелне.
Не добијате ништа на И/О радном оптерећењу.
Не постоје алгоритми за паралелно сортирање. Али упити са сортирањем могу се извршавати паралелно у неким аспектима.
Омотачи података треће стране још увек не подржавају паралелну обраду (али би могли!)
ФУЛЛ ОУТЕР ЈОИН није подржан.
мак_ровс онемогућава паралелну обраду.
Ако упит има функцију која није означена ПАРАЛЕЛНО СИГУРНО, биће једнонитна.
Ниво изолације трансакције СЕРИАЛИЗАБЛЕ онемогућава паралелну обраду.
Тестно окружење
ПостгреСКЛ програмери су покушали да смање време одговора ТПЦ-Х бенцхмарк упита. Преузмите бенцхмарк и прилагодите га ПостгреСКЛ-у. Ово је незванична употреба ТПЦ-Х бенцхмарк-а - не за поређење базе података или хардвера.
Преименујте макефиле.суите у Макефиле и промените како је овде описано: https://github.com/tvondra/pg_tpch . Компајлирајте код командом маке.
Генерисање података: ./dbgen -s 10 креира базу података од 23 ГБ. Ово је довољно да се види разлика у перформансама паралелних и непаралелних упита.
Конвертујте датотеке tbl в csv с for и sed.
Клонирајте спремиште pg_tpch и копирајте датотеке csv в pg_tpch/dss/data.
Креирајте упите помоћу команде qgen.
Учитајте податке у базу података помоћу команде ./tpch.sh.
Паралелно секвенцијално скенирање
Можда је брже не због паралелног читања, већ зато што су подаци распоређени по многим ЦПУ језграма. У савременим оперативним системима, ПостгреСКЛ датотеке података се добро кешују. Са читањем унапред, могуће је добити већи блок из складишта него што захтева ПГ демон. Стога, перформансе упита нису ограничене У/И диском. Он троши ЦПУ циклусе да:
читати редове један по један са страница табеле;
упореди вредности стрингова и услове WHERE.
Хајде да покренемо једноставан упит select:
tpch=# explain analyze select l_quantity as sum_qty from lineitem where l_shipdate <= date '1998-12-01' - interval '105' day;
QUERY PLAN
--------------------------------------------------------------------------------------------------------------------------
Seq Scan on lineitem (cost=0.00..1964772.00 rows=58856235 width=5) (actual time=0.014..16951.669 rows=58839715 loops=1)
Filter: (l_shipdate <= '1998-08-18 00:00:00'::timestamp without time zone)
Rows Removed by Filter: 1146337
Planning Time: 0.203 ms
Execution Time: 19035.100 ms
Секвенцијално скенирање производи превише редова без агрегације, тако да се упит извршава од стране једног ЦПУ језгра.
Ako dodate SUM(), можете видети да ће два тока посла помоћи да се убрза упит:
explain analyze select sum(l_quantity) as sum_qty from lineitem where l_shipdate <= date '1998-12-01' - interval '105' day;
QUERY PLAN
----------------------------------------------------------------------------------------------------------------------------------------------------
Finalize Aggregate (cost=1589702.14..1589702.15 rows=1 width=32) (actual time=8553.365..8553.365 rows=1 loops=1)
-> Gather (cost=1589701.91..1589702.12 rows=2 width=32) (actual time=8553.241..8555.067 rows=3 loops=1)
Workers Planned: 2
Workers Launched: 2
-> Partial Aggregate (cost=1588701.91..1588701.92 rows=1 width=32) (actual time=8547.546..8547.546 rows=1 loops=3)
-> Parallel Seq Scan on lineitem (cost=0.00..1527393.33 rows=24523431 width=5) (actual time=0.038..5998.417 rows=19613238 loops=3)
Filter: (l_shipdate <= '1998-08-18 00:00:00'::timestamp without time zone)
Rows Removed by Filter: 382112
Planning Time: 0.241 ms
Execution Time: 8555.131 ms
Паралелно агрегирање
Чвор Параллел Сек Сцан производи редове за делимичну агрегацију. Чвор „Парцијални агрегат“ скраћује ове линије користећи SUM(). На крају, бројач СУМ из сваког радног процеса прикупља чвор „Гатхер”.
Коначни резултат израчунава чвор „Финализуј агрегат“. Ако имате сопствене функције агрегације, не заборавите да их означите као „паралелно безбедне“.
Број радних процеса
Број радних процеса се може повећати без поновног покретања сервера:
explain analyze select sum(l_quantity) as sum_qty from lineitem where l_shipdate <= date '1998-12-01' - interval '105' day;
QUERY PLAN
----------------------------------------------------------------------------------------------------------------------------------------------------
Finalize Aggregate (cost=1589702.14..1589702.15 rows=1 width=32) (actual time=8553.365..8553.365 rows=1 loops=1)
-> Gather (cost=1589701.91..1589702.12 rows=2 width=32) (actual time=8553.241..8555.067 rows=3 loops=1)
Workers Planned: 2
Workers Launched: 2
-> Partial Aggregate (cost=1588701.91..1588701.92 rows=1 width=32) (actual time=8547.546..8547.546 rows=1 loops=3)
-> Parallel Seq Scan on lineitem (cost=0.00..1527393.33 rows=24523431 width=5) (actual time=0.038..5998.417 rows=19613238 loops=3)
Filter: (l_shipdate <= '1998-08-18 00:00:00'::timestamp without time zone)
Rows Removed by Filter: 382112
Planning Time: 0.241 ms
Execution Time: 8555.131 ms
Шта се дешава овде? Радних процеса је било 2 пута више, а захтев је постао само 1,6599 пута бржи. Прорачуни су занимљиви. Имали смо 2 радна процеса и 1 лидера. После промене је постало 4+1.
Наше максимално убрзање из паралелне обраде: 5/3 = 1,66(6) пута.
Како то функционише?
Процеси
Извршење захтева увек почиње водећим процесом. Вођа ради све непаралелно и неку паралелну обраду. Други процеси који извршавају исте захтеве називају се радничким процесима. Паралелна обрада користи инфраструктуру динамички позадински раднички процеси (од верзије 9.4). Пошто други делови ПостгреСКЛ-а користе процесе уместо нити, упит са 3 радна процеса може бити 4 пута бржи од традиционалне обраде.
Интеракција
Раднички процеси комуницирају са вођом кроз ред порука (засновано на дељеној меморији). Сваки процес има 2 реда: за грешке и за тупле.
Сваки пут је табела 3 пута већа од min_parallel_(index|table)_scan_size, Постгрес додаје радни процес. Број токова посла није заснован на трошковима. Кружна зависност отежава сложене имплементације. Уместо тога, планер користи једноставна правила.
У пракси, ова правила нису увек погодна за производњу, тако да можете променити број радних процеса за одређену табелу: АЛТЕР ТАБЛЕ ... СЕТ (parallel_workers = N).
Зашто се паралелна обрада не користи?
Поред дугачке листе ограничења, постоје и провере трошкова:
parallel_setup_cost - да се избегне паралелна обрада кратких захтева. Овај параметар процењује време за припрему меморије, почетак процеса и почетну размену података.
parallel_tuple_cost: комуникација између вође и радника може бити одложена пропорционално броју торки из радних процеса. Овај параметар израчунава цену размене података.
Придруживања угнежђене петље
PostgreSQL 9.6+ может выполнять вложенные циклы параллельно — это простая операция.
explain (costs off) select c_custkey, count(o_orderkey)
from customer left outer join orders on
c_custkey = o_custkey and o_comment not like '%special%deposits%'
group by c_custkey;
QUERY PLAN
--------------------------------------------------------------------------------------
Finalize GroupAggregate
Group Key: customer.c_custkey
-> Gather Merge
Workers Planned: 4
-> Partial GroupAggregate
Group Key: customer.c_custkey
-> Nested Loop Left Join
-> Parallel Index Only Scan using customer_pkey on customer
-> Index Scan using idx_orders_custkey on orders
Index Cond: (customer.c_custkey = o_custkey)
Filter: ((o_comment)::text !~~ '%special%deposits%'::text)
Прикупљање се дешава у последњој фази, тако да је угнежђена петља лево придруживање паралелна операција. Паралелно индексно скенирање је представљено само у верзији 10. Ради слично паралелном серијском скенирању. Стање c_custkey = o_custkey чита један налог по стрингу клијента. Дакле, није паралелно.
Хасх Јоин
Сваки радни процес креира сопствену хеш табелу до ПостгреСКЛ 11. А ако постоји више од четири ова процеса, перформансе се неће побољшати. У новој верзији, хеш табела се дели. Сваки радни процес може да користи ВОРК_МЕМ за креирање хеш табеле.
select
l_shipmode,
sum(case
when o_orderpriority = '1-URGENT'
or o_orderpriority = '2-HIGH'
then 1
else 0
end) as high_line_count,
sum(case
when o_orderpriority <> '1-URGENT'
and o_orderpriority <> '2-HIGH'
then 1
else 0
end) as low_line_count
from
orders,
lineitem
where
o_orderkey = l_orderkey
and l_shipmode in ('MAIL', 'AIR')
and l_commitdate < l_receiptdate
and l_shipdate < l_commitdate
and l_receiptdate >= date '1996-01-01'
and l_receiptdate < date '1996-01-01' + interval '1' year
group by
l_shipmode
order by
l_shipmode
LIMIT 1;
QUERY PLAN
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Limit (cost=1964755.66..1964961.44 rows=1 width=27) (actual time=7579.592..7922.997 rows=1 loops=1)
-> Finalize GroupAggregate (cost=1964755.66..1966196.11 rows=7 width=27) (actual time=7579.590..7579.591 rows=1 loops=1)
Group Key: lineitem.l_shipmode
-> Gather Merge (cost=1964755.66..1966195.83 rows=28 width=27) (actual time=7559.593..7922.319 rows=6 loops=1)
Workers Planned: 4
Workers Launched: 4
-> Partial GroupAggregate (cost=1963755.61..1965192.44 rows=7 width=27) (actual time=7548.103..7564.592 rows=2 loops=5)
Group Key: lineitem.l_shipmode
-> Sort (cost=1963755.61..1963935.20 rows=71838 width=27) (actual time=7530.280..7539.688 rows=62519 loops=5)
Sort Key: lineitem.l_shipmode
Sort Method: external merge Disk: 2304kB
Worker 0: Sort Method: external merge Disk: 2064kB
Worker 1: Sort Method: external merge Disk: 2384kB
Worker 2: Sort Method: external merge Disk: 2264kB
Worker 3: Sort Method: external merge Disk: 2336kB
-> Parallel Hash Join (cost=382571.01..1957960.99 rows=71838 width=27) (actual time=7036.917..7499.692 rows=62519 loops=5)
Hash Cond: (lineitem.l_orderkey = orders.o_orderkey)
-> Parallel Seq Scan on lineitem (cost=0.00..1552386.40 rows=71838 width=19) (actual time=0.583..4901.063 rows=62519 loops=5)
Filter: ((l_shipmode = ANY ('{MAIL,AIR}'::bpchar[])) AND (l_commitdate < l_receiptdate) AND (l_shipdate < l_commitdate) AND (l_receiptdate >= '1996-01-01'::date) AND (l_receiptdate < '1997-01-01 00:00:00'::timestamp without time zone))
Rows Removed by Filter: 11934691
-> Parallel Hash (cost=313722.45..313722.45 rows=3750045 width=20) (actual time=2011.518..2011.518 rows=3000000 loops=5)
Buckets: 65536 Batches: 256 Memory Usage: 3840kB
-> Parallel Seq Scan on orders (cost=0.00..313722.45 rows=3750045 width=20) (actual time=0.029..995.948 rows=3000000 loops=5)
Planning Time: 0.977 ms
Execution Time: 7923.770 ms
Упит 12 из ТПЦ-Х јасно показује паралелну хеш везу. Сваки радни процес доприноси стварању заједничке хеш табеле.
Мерге Јоин
Спајање спајања је непаралелно по природи. Не брините ако је ово последњи корак упита - и даље може да ради паралелно.
-- Query 2 from TPC-H
explain (costs off) select s_acctbal, s_name, n_name, p_partkey, p_mfgr, s_address, s_phone, s_comment
from part, supplier, partsupp, nation, region
where
p_partkey = ps_partkey
and s_suppkey = ps_suppkey
and p_size = 36
and p_type like '%BRASS'
and s_nationkey = n_nationkey
and n_regionkey = r_regionkey
and r_name = 'AMERICA'
and ps_supplycost = (
select
min(ps_supplycost)
from partsupp, supplier, nation, region
where
p_partkey = ps_partkey
and s_suppkey = ps_suppkey
and s_nationkey = n_nationkey
and n_regionkey = r_regionkey
and r_name = 'AMERICA'
)
order by s_acctbal desc, n_name, s_name, p_partkey
LIMIT 100;
QUERY PLAN
----------------------------------------------------------------------------------------------------------
Limit
-> Sort
Sort Key: supplier.s_acctbal DESC, nation.n_name, supplier.s_name, part.p_partkey
-> Merge Join
Merge Cond: (part.p_partkey = partsupp.ps_partkey)
Join Filter: (partsupp.ps_supplycost = (SubPlan 1))
-> Gather Merge
Workers Planned: 4
-> Parallel Index Scan using <strong>part_pkey</strong> on part
Filter: (((p_type)::text ~~ '%BRASS'::text) AND (p_size = 36))
-> Materialize
-> Sort
Sort Key: partsupp.ps_partkey
-> Nested Loop
-> Nested Loop
Join Filter: (nation.n_regionkey = region.r_regionkey)
-> Seq Scan on region
Filter: (r_name = 'AMERICA'::bpchar)
-> Hash Join
Hash Cond: (supplier.s_nationkey = nation.n_nationkey)
-> Seq Scan on supplier
-> Hash
-> Seq Scan on nation
-> Index Scan using idx_partsupp_suppkey on partsupp
Index Cond: (ps_suppkey = supplier.s_suppkey)
SubPlan 1
-> Aggregate
-> Nested Loop
Join Filter: (nation_1.n_regionkey = region_1.r_regionkey)
-> Seq Scan on region region_1
Filter: (r_name = 'AMERICA'::bpchar)
-> Nested Loop
-> Nested Loop
-> Index Scan using idx_partsupp_partkey on partsupp partsupp_1
Index Cond: (part.p_partkey = ps_partkey)
-> Index Scan using supplier_pkey on supplier supplier_1
Index Cond: (s_suppkey = partsupp_1.ps_suppkey)
-> Index Scan using nation_pkey on nation nation_1
Index Cond: (n_nationkey = supplier_1.s_nationkey)
Чвор „Мерге Јоин“ се налази изнад „Гатхер Мерге“. Дакле, спајање не користи паралелну обраду. Али чвор „Параллелно индексно скенирање“ и даље помаже у сегменту part_pkey.
Повезивање по секцијама
У ПостгреСКЛ 11 веза по секцијама подразумевано онемогућено: има веома скупо заказивање. Табеле са сличним партиционирањем могу се спојити партиција по партиција. На овај начин ће Постгрес користити мање хеш табеле. Свака веза секција може бити паралелна.
tpch=# set enable_partitionwise_join=t;
tpch=# explain (costs off) select * from prt1 t1, prt2 t2
where t1.a = t2.b and t1.b = 0 and t2.b between 0 and 10000;
QUERY PLAN
---------------------------------------------------
Append
-> Hash Join
Hash Cond: (t2.b = t1.a)
-> Seq Scan on prt2_p1 t2
Filter: ((b >= 0) AND (b <= 10000))
-> Hash
-> Seq Scan on prt1_p1 t1
Filter: (b = 0)
-> Hash Join
Hash Cond: (t2_1.b = t1_1.a)
-> Seq Scan on prt2_p2 t2_1
Filter: ((b >= 0) AND (b <= 10000))
-> Hash
-> Seq Scan on prt1_p2 t1_1
Filter: (b = 0)
tpch=# set parallel_setup_cost = 1;
tpch=# set parallel_tuple_cost = 0.01;
tpch=# explain (costs off) select * from prt1 t1, prt2 t2
where t1.a = t2.b and t1.b = 0 and t2.b between 0 and 10000;
QUERY PLAN
-----------------------------------------------------------
Gather
Workers Planned: 4
-> Parallel Append
-> Parallel Hash Join
Hash Cond: (t2_1.b = t1_1.a)
-> Parallel Seq Scan on prt2_p2 t2_1
Filter: ((b >= 0) AND (b <= 10000))
-> Parallel Hash
-> Parallel Seq Scan on prt1_p2 t1_1
Filter: (b = 0)
-> Parallel Hash Join
Hash Cond: (t2.b = t1.a)
-> Parallel Seq Scan on prt2_p1 t2
Filter: ((b >= 0) AND (b <= 10000))
-> Parallel Hash
-> Parallel Seq Scan on prt1_p1 t1
Filter: (b = 0)
Главна ствар је да је веза у секцијама паралелна само ако су ови делови довољно велики.
Параллел Аппенд
Параллел Аппенд може се користити уместо различитих блокова у различитим токовима посла. Ово се обично дешава са упитима УНИОН АЛЛ. Недостатак је мањи паралелизам, јер сваки радни процес обрађује само 1 захтев.
Овде се покрећу 2 радна процеса, иако су 4 омогућена.
tpch=# explain (costs off) select sum(l_quantity) as sum_qty from lineitem where l_shipdate <= date '1998-12-01' - interval '105' day union all select sum(l_quantity) as sum_qty from lineitem where l_shipdate <= date '2000-12-01' - interval '105' day;
QUERY PLAN
------------------------------------------------------------------------------------------------
Gather
Workers Planned: 2
-> Parallel Append
-> Aggregate
-> Seq Scan on lineitem
Filter: (l_shipdate <= '2000-08-18 00:00:00'::timestamp without time zone)
-> Aggregate
-> Seq Scan on lineitem lineitem_1
Filter: (l_shipdate <= '1998-08-18 00:00:00'::timestamp without time zone)
Најважније варијабле
ВОРК_МЕМ ограничава меморију по процесу, а не само упите: ворк_мем procesi везе = много меморије.
Од верзије 9.6, паралелна обрада може знатно побољшати перформансе сложених упита који скенирају многе редове или индексе. У ПостгреСКЛ 10, паралелна обрада је подразумевано омогућена. Не заборавите да га онемогућите на серверима са великим ОЛТП радним оптерећењем. Секвенцијална скенирања или скенирања индекса троше много ресурса. Ако не покрећете извештај о целом скупу података, можете побољшати перформансе упита једноставним додавањем индекса који недостају или коришћењем одговарајућег партиционисања.