PostgreSQL жүйесіндегі параллельді сұраулар

PostgreSQL жүйесіндегі параллельді сұраулар
Қазіргі заманғы процессорларда көптеген ядролар бар. Көптеген жылдар бойы қолданбалар деректер базасына параллельді түрде сұраулар жіберді. Егер бұл кестедегі бірнеше жолдар бойынша есеп сұрауы болса, ол бірнеше процессорларды пайдаланған кезде жылдамырақ жұмыс істейді және PostgreSQL мұны 9.6 нұсқасынан бастап жасай алады.

Параллельді сұрау мүмкіндігін енгізу үшін 3 жыл қажет болды - сұрауды орындаудың әртүрлі кезеңдерінде кодты қайта жазуға тура келді. PostgreSQL 9.6 кодты одан әрі жақсарту үшін инфрақұрылымды енгізді. Келесі нұсқаларда сұраулардың басқа түрлері қатар орындалады.

Шектеулер

  • Барлық ядролар бос емес болса, параллельді орындауды қоспаңыз, әйтпесе басқа сұраулар баяулайды.
  • Ең бастысы, жоғары WORK_MEM мәндері бар параллельді өңдеу көп жадты пайдаланады - әрбір хэшті біріктіру немесе сұрыптау work_mem жадын алады.
  • Төмен кідіріс OLTP сұрауларын параллель орындау арқылы жеделдету мүмкін емес. Ал егер сұрау бір жолды қайтарса, параллельді өңдеу оны тек баяулатады.
  • Әзірлеушілер TPC-H эталонын пайдалануды жақсы көреді. Мүмкін сізде параллельді орындау үшін ұқсас сұраулар болуы мүмкін.
  • Тек предикатты құлыптаусыз SELECT сұраулары ғана параллель орындалады.
  • Кейде дұрыс индекстеу параллель режимде кестені дәйекті сканерлеуге қарағанда жақсырақ.
  • Сұрауларды кідіртуге және курсорларға қолдау көрсетілмейді.
  • Терезе функциялары мен реттелген жиынтық функциялар параллель емес.
  • Енгізу/шығару жұмыс жүктемесінде ештеңе ұтпайсыз.
  • Параллельді сұрыптау алгоритмдері жоқ. Бірақ сұрыптаулары бар сұрауларды кейбір аспектілерде параллель орындауға болады.
  • Параллель өңдеуді қосу үшін CTE (WITH ...) кірістірілген ТАҢДАУмен ауыстырыңыз.
  • Үшінші тарап деректер орауыштары параллель өңдеуді әлі қолдамайды (бірақ олар мүмкін!)
  • FULL OUTER JOIN функциясына қолдау көрсетілмейді.
  • max_rows параллель өңдеуді өшіреді.
  • Егер сұрауда PARALLEL SAFE деп белгіленбеген функция болса, ол жалғыз ағынды болады.
  • SERIALIZABLE транзакцияны оқшаулау деңгейі параллель өңдеуді өшіреді.

Сынақ ортасы

PostgreSQL әзірлеушілері TPC-H эталондық сұрауларының жауап беру уақытын қысқартуға тырысты. Эталонды жүктеп алыңыз және оны PostgreSQL-ге бейімдеңіз. Бұл дерекқор немесе аппараттық құралдарды салыстыру үшін емес, TPC-H эталонының бейресми қолданылуы.

  1. TPC-H_Tools_v2.17.3.zip (немесе жаңарақ нұсқасы) жүктеп алыңыз TPC сайтынан.
  2. makefile.suite атын Makefile етіп өзгертіңіз және мына жерде сипатталғандай өзгертіңіз: https://github.com/tvondra/pg_tpch . make пәрменімен кодты құрастырыңыз.
  3. Деректерді жасау: ./dbgen -s 10 23 ГБ деректер қорын жасайды. Бұл параллельді және параллель емес сұраулардың өнімділігіндегі айырмашылықты көру үшін жеткілікті.
  4. Файлдарды түрлендіру tbl в csv с for и sed.
  5. Репозиторийді клондау pg_tpch және файлдарды көшіріңіз csv в pg_tpch/dss/data.
  6. Пәрмен арқылы сұрауларды жасаңыз qgen.
  7. Пәрмен арқылы деректерді дерекқорға жүктеңіз ./tpch.sh.

Параллельді дәйекті сканерлеу

Бұл параллельді оқудың арқасында емес, деректер көптеген процессорлық ядроларға таралғандықтан жылдамырақ болуы мүмкін. Қазіргі операциялық жүйелерде PostgreSQL деректер файлдары жақсы кэштелген. Алда оқу арқылы сақтаудан PG демон сұрауларына қарағанда үлкенірек блокты алуға болады. Сондықтан сұрау өнімділігі дискінің енгізу/шығаруымен шектелмейді. Ол процессор циклдерін келесіге жұмсайды:

  • кесте беттерінен жолдарды бір-бірден оқу;
  • жол мәндері мен шарттарын салыстыру WHERE.

Қарапайым сұрауды орындайық select:

tpch=# explain analyze select l_quantity as sum_qty from lineitem where l_shipdate <= date '1998-12-01' - interval '105' day;
QUERY PLAN
--------------------------------------------------------------------------------------------------------------------------
Seq Scan on lineitem (cost=0.00..1964772.00 rows=58856235 width=5) (actual time=0.014..16951.669 rows=58839715 loops=1)
Filter: (l_shipdate <= '1998-08-18 00:00:00'::timestamp without time zone)
Rows Removed by Filter: 1146337
Planning Time: 0.203 ms
Execution Time: 19035.100 ms

Тізбектелген сканерлеу біріктірусіз тым көп жолдарды шығарады, сондықтан сұрау бір процессорлық ядро ​​арқылы орындалады.

қоссаңыз SUM(), екі жұмыс процесі сұрауды жылдамдатуға көмектесетінін көре аласыз:

explain analyze select sum(l_quantity) as sum_qty from lineitem where l_shipdate <= date '1998-12-01' - interval '105' day;
QUERY PLAN
----------------------------------------------------------------------------------------------------------------------------------------------------
Finalize Aggregate (cost=1589702.14..1589702.15 rows=1 width=32) (actual time=8553.365..8553.365 rows=1 loops=1)
-> Gather (cost=1589701.91..1589702.12 rows=2 width=32) (actual time=8553.241..8555.067 rows=3 loops=1)
Workers Planned: 2
Workers Launched: 2
-> Partial Aggregate (cost=1588701.91..1588701.92 rows=1 width=32) (actual time=8547.546..8547.546 rows=1 loops=3)
-> Parallel Seq Scan on lineitem (cost=0.00..1527393.33 rows=24523431 width=5) (actual time=0.038..5998.417 rows=19613238 loops=3)
Filter: (l_shipdate <= '1998-08-18 00:00:00'::timestamp without time zone)
Rows Removed by Filter: 382112
Planning Time: 0.241 ms
Execution Time: 8555.131 ms

Параллельді біріктіру

Parallel Seq Scan түйіні ішінара біріктіру үшін жолдарды шығарады. "Ішінара жиынтық" түйіні осы жолдарды пайдалана отырып кеседі SUM(). Соңында әрбір жұмысшы процесінің SUM есептегіші «Жинау» түйінімен жиналады.

Түпкілікті нәтиже «Жиындықты аяқтау» түйіні арқылы есептеледі. Егер сізде жеке біріктіру функциялары болса, оларды «параллель сейф» ретінде белгілеуді ұмытпаңыз.

Жұмысшы процестерінің саны

Серверді қайта іске қоспай-ақ жұмысшы процестерінің санын көбейтуге болады:

explain analyze select sum(l_quantity) as sum_qty from lineitem where l_shipdate <= date '1998-12-01' - interval '105' day;
QUERY PLAN
----------------------------------------------------------------------------------------------------------------------------------------------------
Finalize Aggregate (cost=1589702.14..1589702.15 rows=1 width=32) (actual time=8553.365..8553.365 rows=1 loops=1)
-> Gather (cost=1589701.91..1589702.12 rows=2 width=32) (actual time=8553.241..8555.067 rows=3 loops=1)
Workers Planned: 2
Workers Launched: 2
-> Partial Aggregate (cost=1588701.91..1588701.92 rows=1 width=32) (actual time=8547.546..8547.546 rows=1 loops=3)
-> Parallel Seq Scan on lineitem (cost=0.00..1527393.33 rows=24523431 width=5) (actual time=0.038..5998.417 rows=19613238 loops=3)
Filter: (l_shipdate <= '1998-08-18 00:00:00'::timestamp without time zone)
Rows Removed by Filter: 382112
Planning Time: 0.241 ms
Execution Time: 8555.131 ms

Бұл жерде не болып жатыр? Жұмыс процестері 2 есе көп болды, ал сұраныс тек 1,6599 есе жылдам болды. Есептер қызықты. Бізде 2 жұмысшы процесі және 1 жетекші болды. Өзгерістен кейін ол 4+1 болды.

Параллельді өңдеуден максималды жылдамдығымыз: 5/3 = 1,66(6) есе.

Бұл қалай жұмыс істейді?

Процестер

Сұранысты орындау әрқашан жетекші процестен басталады. Көшбасшы барлығын параллель емес және кейбір параллель өңдеуді жасайды. Бірдей сұрауларды орындайтын басқа процестер жұмысшы процестері деп аталады. Параллельді өңдеу инфрақұрылымды пайдаланады динамикалық фондық жұмысшы процестері (9.4 нұсқасынан). PostgreSQL-тің басқа бөліктері ағындардан гөрі процестерді пайдаланатындықтан, 3 жұмысшы процесі бар сұрау дәстүрлі өңдеуден 4 есе жылдамырақ болуы мүмкін.

Өзара әрекеттесу

Жұмысшы процестері жетекшімен хабарлама кезегі арқылы байланысады (ортақ жады негізінде). Әрбір процесте 2 кезек бар: қателер және кортеждер үшін.

Қанша жұмыс процесі қажет?

Ең төменгі шек параметр арқылы көрсетіледі max_parallel_workers_per_gather. Сұрауды орындаушы параметрмен шектелген пулдан жұмыс процестерін алады max_parallel_workers size. Соңғы шектеу max_worker_processes, яғни фондық процестердің жалпы саны.

Егер жұмысшы процесін бөлу мүмкін болмаса, өңдеу бір процесстік болады.

Сұрауды жоспарлаушы кестенің немесе индекстің өлшеміне байланысты жұмыс процестерін азайта алады. Бұл үшін параметрлер бар min_parallel_table_scan_size и min_parallel_index_scan_size.

set min_parallel_table_scan_size='8MB'
8MB table => 1 worker
24MB table => 2 workers
72MB table => 3 workers
x => log(x / min_parallel_table_scan_size) / log(3) + 1 worker

Әр жолы кесте 3 есе үлкен min_parallel_(index|table)_scan_size, Postgres жұмысшы процесін қосады. Жұмыс процестерінің саны шығындарға негізделмейді. Шеңберлік тәуелділік күрделі іске асыруды қиындатады. Оның орнына жоспарлаушы қарапайым ережелерді пайдаланады.

Іс жүзінде бұл ережелер өндіріс үшін әрқашан қолайлы бола бермейді, сондықтан белгілі бір кесте үшін жұмысшы процестерінің санын өзгертуге болады: ALTER TABLE ... SET (parallel_workers = N).

Неліктен параллельді өңдеу қолданылмайды?

Шектеулердің ұзақ тізімінен басқа, шығындарды тексеру де бар:

parallel_setup_cost - қысқа сұраныстарды параллель өңдеуді болдырмау. Бұл параметр жадты дайындау, процесті бастау және бастапқы деректер алмасу уақытын бағалайды.

parallel_tuple_cost: басшы мен жұмысшылар арасындағы байланыс жұмыс процестеріндегі кортеждер санына пропорционалды кешіктірілуі мүмкін. Бұл параметр деректер алмасу құнын есептейді.

Кірістірілген цикл қосылыстары

PostgreSQL 9.6+ может выполнять вложенные циклы параллельно — это простая операция.

explain (costs off) select c_custkey, count(o_orderkey)
                from    customer left outer join orders on
                                c_custkey = o_custkey and o_comment not like '%special%deposits%'
                group by c_custkey;
                                      QUERY PLAN
--------------------------------------------------------------------------------------
 Finalize GroupAggregate
   Group Key: customer.c_custkey
   ->  Gather Merge
         Workers Planned: 4
         ->  Partial GroupAggregate
               Group Key: customer.c_custkey
               ->  Nested Loop Left Join
                     ->  Parallel Index Only Scan using customer_pkey on customer
                     ->  Index Scan using idx_orders_custkey on orders
                           Index Cond: (customer.c_custkey = o_custkey)
                           Filter: ((o_comment)::text !~~ '%special%deposits%'::text)

Жинақ соңғы кезеңде орын алады, сондықтан кірістірілген цикл солға қосылу параллель операция болып табылады. Тек параллельді индексті сканерлеу 10 нұсқада ғана енгізілді. Ол параллельді сериялық сканерлеуге ұқсас жұмыс істейді. Шарт c_custkey = o_custkey клиент жолына бір тапсырысты оқиды. Сондықтан бұл параллель емес.

Хэш қосылу

Әрбір жұмысшы процесі PostgreSQL 11-ге дейін өзінің хэш кестесін жасайды. Ал егер осы процестердің төртеуінен көп болса, өнімділік жақсармайды. Жаңа нұсқада хэш кестесі ортақ пайдаланылады. Әрбір жұмыс процесі хэш кестесін жасау үшін WORK_MEM пайдалана алады.

select
        l_shipmode,
        sum(case
                when o_orderpriority = '1-URGENT'
                        or o_orderpriority = '2-HIGH'
                        then 1
                else 0
        end) as high_line_count,
        sum(case
                when o_orderpriority <> '1-URGENT'
                        and o_orderpriority <> '2-HIGH'
                        then 1
                else 0
        end) as low_line_count
from
        orders,
        lineitem
where
        o_orderkey = l_orderkey
        and l_shipmode in ('MAIL', 'AIR')
        and l_commitdate < l_receiptdate
        and l_shipdate < l_commitdate
        and l_receiptdate >= date '1996-01-01'
        and l_receiptdate < date '1996-01-01' + interval '1' year
group by
        l_shipmode
order by
        l_shipmode
LIMIT 1;
                                                                                                                                    QUERY PLAN
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
 Limit  (cost=1964755.66..1964961.44 rows=1 width=27) (actual time=7579.592..7922.997 rows=1 loops=1)
   ->  Finalize GroupAggregate  (cost=1964755.66..1966196.11 rows=7 width=27) (actual time=7579.590..7579.591 rows=1 loops=1)
         Group Key: lineitem.l_shipmode
         ->  Gather Merge  (cost=1964755.66..1966195.83 rows=28 width=27) (actual time=7559.593..7922.319 rows=6 loops=1)
               Workers Planned: 4
               Workers Launched: 4
               ->  Partial GroupAggregate  (cost=1963755.61..1965192.44 rows=7 width=27) (actual time=7548.103..7564.592 rows=2 loops=5)
                     Group Key: lineitem.l_shipmode
                     ->  Sort  (cost=1963755.61..1963935.20 rows=71838 width=27) (actual time=7530.280..7539.688 rows=62519 loops=5)
                           Sort Key: lineitem.l_shipmode
                           Sort Method: external merge  Disk: 2304kB
                           Worker 0:  Sort Method: external merge  Disk: 2064kB
                           Worker 1:  Sort Method: external merge  Disk: 2384kB
                           Worker 2:  Sort Method: external merge  Disk: 2264kB
                           Worker 3:  Sort Method: external merge  Disk: 2336kB
                           ->  Parallel Hash Join  (cost=382571.01..1957960.99 rows=71838 width=27) (actual time=7036.917..7499.692 rows=62519 loops=5)
                                 Hash Cond: (lineitem.l_orderkey = orders.o_orderkey)
                                 ->  Parallel Seq Scan on lineitem  (cost=0.00..1552386.40 rows=71838 width=19) (actual time=0.583..4901.063 rows=62519 loops=5)
                                       Filter: ((l_shipmode = ANY ('{MAIL,AIR}'::bpchar[])) AND (l_commitdate < l_receiptdate) AND (l_shipdate < l_commitdate) AND (l_receiptdate >= '1996-01-01'::date) AND (l_receiptdate < '1997-01-01 00:00:00'::timestamp without time zone))
                                       Rows Removed by Filter: 11934691
                                 ->  Parallel Hash  (cost=313722.45..313722.45 rows=3750045 width=20) (actual time=2011.518..2011.518 rows=3000000 loops=5)
                                       Buckets: 65536  Batches: 256  Memory Usage: 3840kB
                                       ->  Parallel Seq Scan on orders  (cost=0.00..313722.45 rows=3750045 width=20) (actual time=0.029..995.948 rows=3000000 loops=5)
 Planning Time: 0.977 ms
 Execution Time: 7923.770 ms

TPC-H 12 сұрауы параллель хэш қосылымын анық көрсетеді. Әрбір жұмысшы процесі жалпы хэш кестесін жасауға үлес қосады.

Біріктіру Қосылу

Біріктіру сипаты бойынша параллель емес. Бұл сұраудың соңғы қадамы болса, алаңдамаңыз - ол әлі де параллель жұмыс істей алады.

-- Query 2 from TPC-H
explain (costs off) select s_acctbal, s_name, n_name, p_partkey, p_mfgr, s_address, s_phone, s_comment
from    part, supplier, partsupp, nation, region
where
        p_partkey = ps_partkey
        and s_suppkey = ps_suppkey
        and p_size = 36
        and p_type like '%BRASS'
        and s_nationkey = n_nationkey
        and n_regionkey = r_regionkey
        and r_name = 'AMERICA'
        and ps_supplycost = (
                select
                        min(ps_supplycost)
                from    partsupp, supplier, nation, region
                where
                        p_partkey = ps_partkey
                        and s_suppkey = ps_suppkey
                        and s_nationkey = n_nationkey
                        and n_regionkey = r_regionkey
                        and r_name = 'AMERICA'
        )
order by s_acctbal desc, n_name, s_name, p_partkey
LIMIT 100;
                                                QUERY PLAN
----------------------------------------------------------------------------------------------------------
 Limit
   ->  Sort
         Sort Key: supplier.s_acctbal DESC, nation.n_name, supplier.s_name, part.p_partkey
         ->  Merge Join
               Merge Cond: (part.p_partkey = partsupp.ps_partkey)
               Join Filter: (partsupp.ps_supplycost = (SubPlan 1))
               ->  Gather Merge
                     Workers Planned: 4
                     ->  Parallel Index Scan using <strong>part_pkey</strong> on part
                           Filter: (((p_type)::text ~~ '%BRASS'::text) AND (p_size = 36))
               ->  Materialize
                     ->  Sort
                           Sort Key: partsupp.ps_partkey
                           ->  Nested Loop
                                 ->  Nested Loop
                                       Join Filter: (nation.n_regionkey = region.r_regionkey)
                                       ->  Seq Scan on region
                                             Filter: (r_name = 'AMERICA'::bpchar)
                                       ->  Hash Join
                                             Hash Cond: (supplier.s_nationkey = nation.n_nationkey)
                                             ->  Seq Scan on supplier
                                             ->  Hash
                                                   ->  Seq Scan on nation
                                 ->  Index Scan using idx_partsupp_suppkey on partsupp
                                       Index Cond: (ps_suppkey = supplier.s_suppkey)
               SubPlan 1
                 ->  Aggregate
                       ->  Nested Loop
                             Join Filter: (nation_1.n_regionkey = region_1.r_regionkey)
                             ->  Seq Scan on region region_1
                                   Filter: (r_name = 'AMERICA'::bpchar)
                             ->  Nested Loop
                                   ->  Nested Loop
                                         ->  Index Scan using idx_partsupp_partkey on partsupp partsupp_1
                                               Index Cond: (part.p_partkey = ps_partkey)
                                         ->  Index Scan using supplier_pkey on supplier supplier_1
                                               Index Cond: (s_suppkey = partsupp_1.ps_suppkey)
                                   ->  Index Scan using nation_pkey on nation nation_1
                                         Index Cond: (n_nationkey = supplier_1.s_nationkey)

«Біріктіру» түйіні «Біріктіруді жинау» үстінде орналасқан. Сондықтан біріктіру параллельді өңдеуді пайдаланбайды. Бірақ «Параллельді индексті сканерлеу» түйіні әлі де сегментке көмектеседі part_pkey.

Бөлімдер бойынша қосылу

PostgreSQL 11 жүйесінде бөлімдермен байланыстыру әдепкі бойынша өшірілген: оның өте қымбат жоспарлауы бар. Ұқсас бөлімдері бар кестелерді бөлімдер бойынша біріктіруге болады. Осылайша Postgres кішірек хэш кестелерін пайдаланады. Бөлімдердің әрбір қосылымы параллель болуы мүмкін.

tpch=# set enable_partitionwise_join=t;
tpch=# explain (costs off) select * from prt1 t1, prt2 t2
where t1.a = t2.b and t1.b = 0 and t2.b between 0 and 10000;
                    QUERY PLAN
---------------------------------------------------
 Append
   ->  Hash Join
         Hash Cond: (t2.b = t1.a)
         ->  Seq Scan on prt2_p1 t2
               Filter: ((b >= 0) AND (b <= 10000))
         ->  Hash
               ->  Seq Scan on prt1_p1 t1
                     Filter: (b = 0)
   ->  Hash Join
         Hash Cond: (t2_1.b = t1_1.a)
         ->  Seq Scan on prt2_p2 t2_1
               Filter: ((b >= 0) AND (b <= 10000))
         ->  Hash
               ->  Seq Scan on prt1_p2 t1_1
                     Filter: (b = 0)
tpch=# set parallel_setup_cost = 1;
tpch=# set parallel_tuple_cost = 0.01;
tpch=# explain (costs off) select * from prt1 t1, prt2 t2
where t1.a = t2.b and t1.b = 0 and t2.b between 0 and 10000;
                        QUERY PLAN
-----------------------------------------------------------
 Gather
   Workers Planned: 4
   ->  Parallel Append
         ->  Parallel Hash Join
               Hash Cond: (t2_1.b = t1_1.a)
               ->  Parallel Seq Scan on prt2_p2 t2_1
                     Filter: ((b >= 0) AND (b <= 10000))
               ->  Parallel Hash
                     ->  Parallel Seq Scan on prt1_p2 t1_1
                           Filter: (b = 0)
         ->  Parallel Hash Join
               Hash Cond: (t2.b = t1.a)
               ->  Parallel Seq Scan on prt2_p1 t2
                     Filter: ((b >= 0) AND (b <= 10000))
               ->  Parallel Hash
                     ->  Parallel Seq Scan on prt1_p1 t1
                           Filter: (b = 0)

Ең бастысы, бұл бөлімдер жеткілікті үлкен болған жағдайда ғана бөлімдердегі байланыс параллель болады.

Параллельді қосу

Параллельді қосу әртүрлі жұмыс үрдістерінде әртүрлі блоктардың орнына қолданылуы мүмкін. Бұл әдетте UNION ALL сұрауларында болады. Кемшілігі параллелизмнің аздығы, себебі әрбір жұмысшы процесі тек 1 сұранысты өңдейді.

Мұнда жұмыс істейтін 2 жұмыс процесі бар, бірақ 4 қосулы.

tpch=# explain (costs off) select sum(l_quantity) as sum_qty from lineitem where l_shipdate <= date '1998-12-01' - interval '105' day union all select sum(l_quantity) as sum_qty from lineitem where l_shipdate <= date '2000-12-01' - interval '105' day;
                                           QUERY PLAN
------------------------------------------------------------------------------------------------
 Gather
   Workers Planned: 2
   ->  Parallel Append
         ->  Aggregate
               ->  Seq Scan on lineitem
                     Filter: (l_shipdate <= '2000-08-18 00:00:00'::timestamp without time zone)
         ->  Aggregate
               ->  Seq Scan on lineitem lineitem_1
                     Filter: (l_shipdate <= '1998-08-18 00:00:00'::timestamp without time zone)

Ең маңызды айнымалылар

  • WORK_MEM тек сұрауларды емес, әр процеске жадты шектейді: work_mem процестер қосылымдар = көп жады.
  • max_parallel_workers_per_gather — орындалатын бағдарлама жоспардан параллельді өңдеу үшін қанша жұмысшы процессін пайдаланады.
  • max_worker_processes — жұмысшы процестерінің жалпы санын сервердегі орталық процессордың ядроларының санына қарай реттейді.
  • max_parallel_workers - бірдей, бірақ параллель жұмыс процестері үшін.

Нәтижелері

9.6 нұсқасынан бастап параллель өңдеу көптеген жолдарды немесе индекстерді сканерлейтін күрделі сұраулардың өнімділігін айтарлықтай жақсарта алады. PostgreSQL 10 жүйесінде параллель өңдеу әдепкі бойынша қосылады. Оны үлкен OLTP жұмыс жүктемесі бар серверлерде өшіруді ұмытпаңыз. Кезекті сканерлеу немесе индекстік сканерлеу көптеген ресурстарды тұтынады. Бүкіл деректер жиыны бойынша есепті іске қоспасаңыз, жетіспейтін индекстерді қосу немесе дұрыс бөлуді пайдалану арқылы сұрау өнімділігін жақсартуға болады.

сілтемелер

Ақпарат көзі: www.habr.com

пікір қалдыру