Rinnakkaiset kyselyt PostgreSQL:ssä

Rinnakkaiset kyselyt PostgreSQL:ssä
Nykyaikaisissa prosessoreissa on paljon ydintä. Vuosien ajan sovellukset ovat lähettäneet kyselyitä tietokantoihin rinnakkain. Jos se on raporttikysely useilla taulukon riveillä, se toimii nopeammin, kun käytetään useita suorittimia, ja PostgreSQL on pystynyt tekemään tämän versiosta 9.6 lähtien.

Rinnakkaiskyselyominaisuuden käyttöönotto kesti 3 vuotta - koodi piti kirjoittaa uudelleen kyselyn suorittamisen eri vaiheissa. PostgreSQL 9.6 esitteli infrastruktuurin koodin edelleen parantamiseksi. Myöhemmissä versioissa muun tyyppiset kyselyt suoritetaan rinnakkain.

Rajoitukset

  • Älä ota rinnakkaissuoritusta käyttöön, jos kaikki ytimet ovat jo varattuja, muuten muut pyynnöt hidastuvat.
  • Mikä tärkeintä, rinnakkaiskäsittely korkeilla WORK_MEM-arvoilla käyttää paljon muistia - jokainen hash-liitos tai lajittelu vie work_mem-muistia.
  • Pienen viiveen OLTP-kyselyitä ei voida nopeuttaa rinnakkaisella suorituksella. Ja jos kysely palauttaa yhden rivin, rinnakkaiskäsittely vain hidastaa sitä.
  • Kehittäjät käyttävät mielellään TPC-H-benchmarkia. Ehkä sinulla on samanlaisia ​​kyselyitä täydellisestä rinnakkaissuorituksesta.
  • Vain SELECT-kyselyt ilman predikaattilukitusta suoritetaan rinnakkain.
  • Joskus oikea indeksointi on parempi kuin peräkkäinen taulukkoskannaus rinnakkaistilassa.
  • Kyselyjen ja kohdistimien keskeyttämistä ei tueta.
  • Ikkunafunktiot ja järjestetyt joukkoyhdistelmäfunktiot eivät ole rinnakkaisia.
  • Et saa mitään I/O-työkuormasta.
  • Rinnakkaisia ​​lajittelualgoritmeja ei ole. Mutta lajittelevia kyselyjä voidaan suorittaa rinnakkain joissain asioissa.
  • Korvaa CTE (WITH ...) sisäkkäisillä SELECT-toiminnolla salliaksesi rinnakkaiskäsittelyn.
  • Kolmannen osapuolen datakääreet eivät vielä tue rinnakkaiskäsittelyä (mutta voisivat!)
  • FULL OUTTER JOIN -toimintoa ei tueta.
  • max_rows poistaa rinnakkaiskäsittelyn käytöstä.
  • Jos kyselyssä on toiminto, jota ei ole merkitty RINNAKKAISSA TURVALLISESTI, se on yksisäikeinen.
  • SERIALIZABLE-tapahtuman eristystaso estää rinnakkaiskäsittelyn.

Testiympäristössä

PostgreSQL-kehittäjät yrittivät lyhentää TPC-H-benchmark-kyselyiden vasteaikaa. Lataa vertailuarvo ja mukauttaa se PostgreSQL:ään. Tämä on TPC-H-benchmarkin epävirallinen käyttö - ei tietokantojen tai laitteistojen vertailuun.

  1. Lataa TPC-H_Tools_v2.17.3.zip (tai uudempi versio) TPC:n ulkopuolelta.
  2. Nimeä makefile.suite uudelleen muotoon Makefile ja muuta tässä kuvatulla tavalla: https://github.com/tvondra/pg_tpch . Kääntää koodi make-komennolla.
  3. Luo dataa: ./dbgen -s 10 luo 23 Gt:n tietokannan. Tämä riittää nähdäksesi eron rinnakkaisten ja ei-rinnakkaisten kyselyiden suorituskyvyssä.
  4. Muunna tiedostoja tbl в csv с for и sed.
  5. Kloonaa arkisto pg_tpch ja kopioi tiedostot csv в pg_tpch/dss/data.
  6. Luo kyselyitä komennolla qgen.
  7. Lataa tiedot tietokantaan komennolla ./tpch.sh.

Rinnakkainen peräkkäinen skannaus

Se ei ehkä ole nopeampi rinnakkaisluennan takia, vaan siksi, että data on hajallaan useiden suorittimen ytimien kesken. Nykyaikaisissa käyttöjärjestelmissä PostgreSQL-datatiedostot tallennetaan hyvin välimuistiin. Lukemalla eteenpäin on mahdollista saada suurempi lohko tallennustilasta kuin PG-daemon pyytää. Siksi levyn I/O ei rajoita kyselyn suorituskykyä. Se kuluttaa suorittimen jaksoja:

  • lue rivit yksi kerrallaan taulukkosivuilta;
  • vertaa merkkijonon arvoja ja ehtoja WHERE.

Suoritetaan yksinkertainen kysely select:

tpch=# explain analyze select l_quantity as sum_qty from lineitem where l_shipdate <= date '1998-12-01' - interval '105' day;
QUERY PLAN
--------------------------------------------------------------------------------------------------------------------------
Seq Scan on lineitem (cost=0.00..1964772.00 rows=58856235 width=5) (actual time=0.014..16951.669 rows=58839715 loops=1)
Filter: (l_shipdate <= '1998-08-18 00:00:00'::timestamp without time zone)
Rows Removed by Filter: 1146337
Planning Time: 0.203 ms
Execution Time: 19035.100 ms

Peräkkäinen tarkistus tuottaa liian monta riviä ilman yhdistämistä, joten kyselyn suorittaa yksi CPU-ydin.

Jos lisäät SUM(), voit nähdä, että kaksi työnkulkua nopeuttavat kyselyä:

explain analyze select sum(l_quantity) as sum_qty from lineitem where l_shipdate <= date '1998-12-01' - interval '105' day;
QUERY PLAN
----------------------------------------------------------------------------------------------------------------------------------------------------
Finalize Aggregate (cost=1589702.14..1589702.15 rows=1 width=32) (actual time=8553.365..8553.365 rows=1 loops=1)
-> Gather (cost=1589701.91..1589702.12 rows=2 width=32) (actual time=8553.241..8555.067 rows=3 loops=1)
Workers Planned: 2
Workers Launched: 2
-> Partial Aggregate (cost=1588701.91..1588701.92 rows=1 width=32) (actual time=8547.546..8547.546 rows=1 loops=3)
-> Parallel Seq Scan on lineitem (cost=0.00..1527393.33 rows=24523431 width=5) (actual time=0.038..5998.417 rows=19613238 loops=3)
Filter: (l_shipdate <= '1998-08-18 00:00:00'::timestamp without time zone)
Rows Removed by Filter: 382112
Planning Time: 0.241 ms
Execution Time: 8555.131 ms

Rinnakkainen aggregaatio

Parallel Seq Scan -solmu tuottaa rivejä osittaista yhdistämistä varten. "Osittainen kooste" -solmu leikkaa nämä rivit käyttämällä SUM(). Lopussa Gather-solmu kerää SUM-laskurin jokaisesta työntekijäprosessista.

Lopullisen tuloksen laskee "Finalize Aggregate" -solmu. Jos sinulla on omia aggregointitoimintoja, älä unohda merkitä niitä "rinnakkaisturvallisiksi".

Työntekijöiden prosessien määrä

Työntekijöiden prosessien määrää voidaan lisätä käynnistämättä palvelinta uudelleen:

explain analyze select sum(l_quantity) as sum_qty from lineitem where l_shipdate <= date '1998-12-01' - interval '105' day;
QUERY PLAN
----------------------------------------------------------------------------------------------------------------------------------------------------
Finalize Aggregate (cost=1589702.14..1589702.15 rows=1 width=32) (actual time=8553.365..8553.365 rows=1 loops=1)
-> Gather (cost=1589701.91..1589702.12 rows=2 width=32) (actual time=8553.241..8555.067 rows=3 loops=1)
Workers Planned: 2
Workers Launched: 2
-> Partial Aggregate (cost=1588701.91..1588701.92 rows=1 width=32) (actual time=8547.546..8547.546 rows=1 loops=3)
-> Parallel Seq Scan on lineitem (cost=0.00..1527393.33 rows=24523431 width=5) (actual time=0.038..5998.417 rows=19613238 loops=3)
Filter: (l_shipdate <= '1998-08-18 00:00:00'::timestamp without time zone)
Rows Removed by Filter: 382112
Planning Time: 0.241 ms
Execution Time: 8555.131 ms

Mitä täällä tapahtuu? Työprosesseja oli 2 kertaa enemmän ja pyynnöstä tuli vain 1,6599 kertaa nopeampi. Laskelmat ovat mielenkiintoisia. Meillä oli 2 työntekijäprosessia ja 1 johtaja. Muutoksen jälkeen se oli 4+1.

Suurin nopeutemme rinnakkaiskäsittelystä: 5/3 = 1,66(6) kertaa.

Miten se toimii?

prosessit

Pyynnön suorittaminen alkaa aina johtavasta prosessista. Johtaja tekee kaiken ei-rinnakkaiselta ja jonkin verran rinnakkaista käsittelyä. Muita samoja pyyntöjä suorittavia prosesseja kutsutaan työntekijäprosesseiksi. Rinnakkaiskäsittely käyttää infrastruktuuria dynaamiset taustatyöprosessit (versiosta 9.4 alkaen). Koska muut PostgreSQL:n osat käyttävät prosesseja säikeiden sijaan, kolmen työntekijäprosessin kysely voi olla neljä kertaa nopeampi kuin perinteinen käsittely.

Vuorovaikutus

Työntekijäprosessit kommunikoivat johtajan kanssa viestijonon kautta (jaetun muistin perusteella). Jokaisessa prosessissa on 2 jonoa: virheille ja monikoille.

Kuinka monta työnkulkua tarvitaan?

Parametri määrittää minimirajan max_parallel_workers_per_gather. Pyynnön suorittaja ottaa sitten työntekijäprosessit parametrin rajoittamasta poolista max_parallel_workers size. Viimeinen rajoitus on max_worker_processes, eli taustaprosessien kokonaismäärä.

Jos työntekijäprosessia ei voitu allokoida, käsittely on yksiprosessi.

Kyselysuunnittelija voi vähentää työnkulkuja taulukon tai indeksin koosta riippuen. Tätä varten on parametrit min_parallel_table_scan_size и min_parallel_index_scan_size.

set min_parallel_table_scan_size='8MB'
8MB table => 1 worker
24MB table => 2 workers
72MB table => 3 workers
x => log(x / min_parallel_table_scan_size) / log(3) + 1 worker

Joka kerta pöytä on 3 kertaa suurempi kuin min_parallel_(index|table)_scan_size, Postgres lisää työntekijäprosessin. Työnkulkujen määrä ei perustu kustannuksiin. Pyöreä riippuvuus tekee monimutkaisista toteutuksista vaikeaa. Sen sijaan suunnittelija käyttää yksinkertaisia ​​sääntöjä.

Käytännössä nämä säännöt eivät aina sovellu tuotantoon, joten voit muuttaa tietyn taulukon työntekijäprosessien määrää: ALTER TABLE ... SET (parallel_workers = N).

Miksi rinnakkaiskäsittelyä ei käytetä?

Pitkän rajoituslistan lisäksi tarjolla on myös kustannustarkistuksia:

parallel_setup_cost - lyhyiden pyyntöjen rinnakkaisen käsittelyn välttämiseksi. Tämä parametri arvioi muistin valmisteluun, prosessin käynnistämiseen ja alkutietojen vaihtoon kuluvan ajan.

parallel_tuple_cost: viestintä johtajan ja työntekijöiden välillä voi viivästyä suhteessa työprosesseista tulevien ketjujen määrään. Tämä parametri laskee tiedonvaihdon kustannukset.

Sisäkkäiset silmukkaliitokset

PostgreSQL 9.6+ может выполнять вложенные циклы параллельно — это простая операция.

explain (costs off) select c_custkey, count(o_orderkey)
                from    customer left outer join orders on
                                c_custkey = o_custkey and o_comment not like '%special%deposits%'
                group by c_custkey;
                                      QUERY PLAN
--------------------------------------------------------------------------------------
 Finalize GroupAggregate
   Group Key: customer.c_custkey
   ->  Gather Merge
         Workers Planned: 4
         ->  Partial GroupAggregate
               Group Key: customer.c_custkey
               ->  Nested Loop Left Join
                     ->  Parallel Index Only Scan using customer_pkey on customer
                     ->  Index Scan using idx_orders_custkey on orders
                           Index Cond: (customer.c_custkey = o_custkey)
                           Filter: ((o_comment)::text !~~ '%special%deposits%'::text)

Keräys tapahtuu viimeisessä vaiheessa, joten sisäkkäisen silmukan vasen liitos on rinnakkaistoiminto. Parallel Index Only Scan otettiin käyttöön vasta versiossa 10. Se toimii samalla tavalla kuin rinnakkaissarjaskannaus. Kunto c_custkey = o_custkey lukee yhden tilauksen asiakasmerkkijonoa kohti. Se ei siis ole rinnakkainen.

Hash Liity

Jokainen työntekijäprosessi luo oman hash-taulukon PostgreSQL 11:een asti. Ja jos näitä prosesseja on enemmän kuin neljä, suorituskyky ei parane. Uudessa versiossa hash-taulukko on jaettu. Jokainen työntekijäprosessi voi käyttää WORK_MEM:iä luodakseen hajautustaulukon.

select
        l_shipmode,
        sum(case
                when o_orderpriority = '1-URGENT'
                        or o_orderpriority = '2-HIGH'
                        then 1
                else 0
        end) as high_line_count,
        sum(case
                when o_orderpriority <> '1-URGENT'
                        and o_orderpriority <> '2-HIGH'
                        then 1
                else 0
        end) as low_line_count
from
        orders,
        lineitem
where
        o_orderkey = l_orderkey
        and l_shipmode in ('MAIL', 'AIR')
        and l_commitdate < l_receiptdate
        and l_shipdate < l_commitdate
        and l_receiptdate >= date '1996-01-01'
        and l_receiptdate < date '1996-01-01' + interval '1' year
group by
        l_shipmode
order by
        l_shipmode
LIMIT 1;
                                                                                                                                    QUERY PLAN
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
 Limit  (cost=1964755.66..1964961.44 rows=1 width=27) (actual time=7579.592..7922.997 rows=1 loops=1)
   ->  Finalize GroupAggregate  (cost=1964755.66..1966196.11 rows=7 width=27) (actual time=7579.590..7579.591 rows=1 loops=1)
         Group Key: lineitem.l_shipmode
         ->  Gather Merge  (cost=1964755.66..1966195.83 rows=28 width=27) (actual time=7559.593..7922.319 rows=6 loops=1)
               Workers Planned: 4
               Workers Launched: 4
               ->  Partial GroupAggregate  (cost=1963755.61..1965192.44 rows=7 width=27) (actual time=7548.103..7564.592 rows=2 loops=5)
                     Group Key: lineitem.l_shipmode
                     ->  Sort  (cost=1963755.61..1963935.20 rows=71838 width=27) (actual time=7530.280..7539.688 rows=62519 loops=5)
                           Sort Key: lineitem.l_shipmode
                           Sort Method: external merge  Disk: 2304kB
                           Worker 0:  Sort Method: external merge  Disk: 2064kB
                           Worker 1:  Sort Method: external merge  Disk: 2384kB
                           Worker 2:  Sort Method: external merge  Disk: 2264kB
                           Worker 3:  Sort Method: external merge  Disk: 2336kB
                           ->  Parallel Hash Join  (cost=382571.01..1957960.99 rows=71838 width=27) (actual time=7036.917..7499.692 rows=62519 loops=5)
                                 Hash Cond: (lineitem.l_orderkey = orders.o_orderkey)
                                 ->  Parallel Seq Scan on lineitem  (cost=0.00..1552386.40 rows=71838 width=19) (actual time=0.583..4901.063 rows=62519 loops=5)
                                       Filter: ((l_shipmode = ANY ('{MAIL,AIR}'::bpchar[])) AND (l_commitdate < l_receiptdate) AND (l_shipdate < l_commitdate) AND (l_receiptdate >= '1996-01-01'::date) AND (l_receiptdate < '1997-01-01 00:00:00'::timestamp without time zone))
                                       Rows Removed by Filter: 11934691
                                 ->  Parallel Hash  (cost=313722.45..313722.45 rows=3750045 width=20) (actual time=2011.518..2011.518 rows=3000000 loops=5)
                                       Buckets: 65536  Batches: 256  Memory Usage: 3840kB
                                       ->  Parallel Seq Scan on orders  (cost=0.00..313722.45 rows=3750045 width=20) (actual time=0.029..995.948 rows=3000000 loops=5)
 Planning Time: 0.977 ms
 Execution Time: 7923.770 ms

TPC-H:n kysely 12 osoittaa selvästi rinnakkaishajayhteyden. Jokainen työntekijäprosessi osallistuu yhteisen hash-taulukon luomiseen.

Yhdistä Liity

Yhdistäminen ei ole luonteeltaan yhdensuuntaista. Älä huoli, jos tämä on kyselyn viimeinen vaihe - se voi silti toimia rinnakkain.

-- Query 2 from TPC-H
explain (costs off) select s_acctbal, s_name, n_name, p_partkey, p_mfgr, s_address, s_phone, s_comment
from    part, supplier, partsupp, nation, region
where
        p_partkey = ps_partkey
        and s_suppkey = ps_suppkey
        and p_size = 36
        and p_type like '%BRASS'
        and s_nationkey = n_nationkey
        and n_regionkey = r_regionkey
        and r_name = 'AMERICA'
        and ps_supplycost = (
                select
                        min(ps_supplycost)
                from    partsupp, supplier, nation, region
                where
                        p_partkey = ps_partkey
                        and s_suppkey = ps_suppkey
                        and s_nationkey = n_nationkey
                        and n_regionkey = r_regionkey
                        and r_name = 'AMERICA'
        )
order by s_acctbal desc, n_name, s_name, p_partkey
LIMIT 100;
                                                QUERY PLAN
----------------------------------------------------------------------------------------------------------
 Limit
   ->  Sort
         Sort Key: supplier.s_acctbal DESC, nation.n_name, supplier.s_name, part.p_partkey
         ->  Merge Join
               Merge Cond: (part.p_partkey = partsupp.ps_partkey)
               Join Filter: (partsupp.ps_supplycost = (SubPlan 1))
               ->  Gather Merge
                     Workers Planned: 4
                     ->  Parallel Index Scan using <strong>part_pkey</strong> on part
                           Filter: (((p_type)::text ~~ '%BRASS'::text) AND (p_size = 36))
               ->  Materialize
                     ->  Sort
                           Sort Key: partsupp.ps_partkey
                           ->  Nested Loop
                                 ->  Nested Loop
                                       Join Filter: (nation.n_regionkey = region.r_regionkey)
                                       ->  Seq Scan on region
                                             Filter: (r_name = 'AMERICA'::bpchar)
                                       ->  Hash Join
                                             Hash Cond: (supplier.s_nationkey = nation.n_nationkey)
                                             ->  Seq Scan on supplier
                                             ->  Hash
                                                   ->  Seq Scan on nation
                                 ->  Index Scan using idx_partsupp_suppkey on partsupp
                                       Index Cond: (ps_suppkey = supplier.s_suppkey)
               SubPlan 1
                 ->  Aggregate
                       ->  Nested Loop
                             Join Filter: (nation_1.n_regionkey = region_1.r_regionkey)
                             ->  Seq Scan on region region_1
                                   Filter: (r_name = 'AMERICA'::bpchar)
                             ->  Nested Loop
                                   ->  Nested Loop
                                         ->  Index Scan using idx_partsupp_partkey on partsupp partsupp_1
                                               Index Cond: (part.p_partkey = ps_partkey)
                                         ->  Index Scan using supplier_pkey on supplier supplier_1
                                               Index Cond: (s_suppkey = partsupp_1.ps_suppkey)
                                   ->  Index Scan using nation_pkey on nation nation_1
                                         Index Cond: (n_nationkey = supplier_1.s_nationkey)

"Merge Join" -solmu sijaitsee "Gather Merge" -kohdan yläpuolella. Joten yhdistäminen ei käytä rinnakkaiskäsittelyä. Mutta "Parallel Index Scan" -solmu auttaa silti segmentin kanssa part_pkey.

Yhteys osien mukaan

PostgreSQL 11:ssä yhteys osien mukaan oletusarvoisesti poissa käytöstä: siinä on erittäin kallis aikataulu. Taulukot, joissa on samanlainen osiointi, voidaan liittää osioittain. Tällä tavalla Postgres käyttää pienempiä hash-taulukoita. Jokainen osien liitos voi olla yhdensuuntainen.

tpch=# set enable_partitionwise_join=t;
tpch=# explain (costs off) select * from prt1 t1, prt2 t2
where t1.a = t2.b and t1.b = 0 and t2.b between 0 and 10000;
                    QUERY PLAN
---------------------------------------------------
 Append
   ->  Hash Join
         Hash Cond: (t2.b = t1.a)
         ->  Seq Scan on prt2_p1 t2
               Filter: ((b >= 0) AND (b <= 10000))
         ->  Hash
               ->  Seq Scan on prt1_p1 t1
                     Filter: (b = 0)
   ->  Hash Join
         Hash Cond: (t2_1.b = t1_1.a)
         ->  Seq Scan on prt2_p2 t2_1
               Filter: ((b >= 0) AND (b <= 10000))
         ->  Hash
               ->  Seq Scan on prt1_p2 t1_1
                     Filter: (b = 0)
tpch=# set parallel_setup_cost = 1;
tpch=# set parallel_tuple_cost = 0.01;
tpch=# explain (costs off) select * from prt1 t1, prt2 t2
where t1.a = t2.b and t1.b = 0 and t2.b between 0 and 10000;
                        QUERY PLAN
-----------------------------------------------------------
 Gather
   Workers Planned: 4
   ->  Parallel Append
         ->  Parallel Hash Join
               Hash Cond: (t2_1.b = t1_1.a)
               ->  Parallel Seq Scan on prt2_p2 t2_1
                     Filter: ((b >= 0) AND (b <= 10000))
               ->  Parallel Hash
                     ->  Parallel Seq Scan on prt1_p2 t1_1
                           Filter: (b = 0)
         ->  Parallel Hash Join
               Hash Cond: (t2.b = t1.a)
               ->  Parallel Seq Scan on prt2_p1 t2
                     Filter: ((b >= 0) AND (b <= 10000))
               ->  Parallel Hash
                     ->  Parallel Seq Scan on prt1_p1 t1
                           Filter: (b = 0)

Tärkeintä on, että osien liitäntä on yhdensuuntainen vain, jos nämä osat ovat riittävän suuria.

Rinnakkaisliite

Rinnakkaisliite voidaan käyttää eri lohkojen sijasta eri työnkulkuissa. Tämä tapahtuu yleensä UNION ALL -kyselyissä. Haittana on vähemmän rinnakkaisuutta, koska jokainen työntekijäprosessi käsittelee vain yhden pyynnön.

Tässä on käynnissä 2 työntekijäprosessia, vaikka 4 on käytössä.

tpch=# explain (costs off) select sum(l_quantity) as sum_qty from lineitem where l_shipdate <= date '1998-12-01' - interval '105' day union all select sum(l_quantity) as sum_qty from lineitem where l_shipdate <= date '2000-12-01' - interval '105' day;
                                           QUERY PLAN
------------------------------------------------------------------------------------------------
 Gather
   Workers Planned: 2
   ->  Parallel Append
         ->  Aggregate
               ->  Seq Scan on lineitem
                     Filter: (l_shipdate <= '2000-08-18 00:00:00'::timestamp without time zone)
         ->  Aggregate
               ->  Seq Scan on lineitem lineitem_1
                     Filter: (l_shipdate <= '1998-08-18 00:00:00'::timestamp without time zone)

Tärkeimmät muuttujat

  • WORK_MEM rajoittaa muistia prosessia kohti, ei vain kyselyitä: work_mem prosessit yhteydet = paljon muistia.
  • max_parallel_workers_per_gather — kuinka monta työntekijäprosessia suorittava ohjelma käyttää rinnakkaiseen käsittelyyn suunnitelmasta.
  • max_worker_processes — säätää työprosessien kokonaismäärän palvelimella olevien suorittimen ytimien lukumäärän mukaan.
  • max_parallel_workers - sama, mutta rinnakkaisiin työprosesseihin.

Tulokset

Versiosta 9.6 lähtien rinnakkaiskäsittely voi parantaa huomattavasti monimutkaisten kyselyiden suorituskykyä, jotka skannaavat useita rivejä tai indeksejä. PostgreSQL 10:ssä rinnakkaiskäsittely on oletusarvoisesti käytössä. Muista poistaa se käytöstä palvelimilla, joilla on suuri OLTP-työkuorma. Peräkkäiset tarkistukset tai indeksitarkistukset kuluttavat paljon resursseja. Jos et käytä raporttia koko tietojoukosta, voit parantaa kyselyn suorituskykyä yksinkertaisesti lisäämällä puuttuvia indeksejä tai käyttämällä asianmukaista osiointia.

viittaukset

Lähde: will.com

Lisää kommentti