Հոդվածի թարգմանությունը պատրաստվել է հատուկ դասընթացի ուսանողների համար
Երկու տարի առաջ ես ծախսեցի
ClickHouse-ը բաղկացած է C++ կոդերի 170 հազար տողից՝ չհաշված երրորդ կողմի գրադարանները և հանդիսանում է տվյալների բազայի ամենափոքր բաշխված կոդերի բազաներից մեկը։ Համեմատության համար, SQLite-ը չի աջակցում բաշխմանը և բաղկացած է 235 հազար տող C կոդից: Այս գրելու պահի դրությամբ 207 ինժեներներ ներդրում են ունեցել ClickHouse-ում, և պարտավորությունների ինտենսիվությունը վերջերս աճել է:
2017 թվականի մարտին ClickHouse-ը սկսեց վարել
Այս հոդվածում ես պատրաստվում եմ նայել AWS EC2-ի վրա ClickHouse կլաստերի աշխատանքին՝ օգտագործելով 36 միջուկային պրոցեսորներ և NVMe պահեստավորում:
ԹԱՐՄԱՑՈՒՄ. Այս գրառումը սկզբնապես հրապարակելուց մեկ շաբաթ անց ես վերագործարկեցի թեստը բարելավված կազմաձևով և հասա շատ ավելի լավ արդյունքների: Այս գրառումը թարմացվել է՝ արտացոլելու այս փոփոխությունները:
AWS EC2 կլաստերի գործարկում
Այս գրառման համար ես կօգտագործեմ երեք c5d.9xlarge EC2 օրինակ: Նրանցից յուրաքանչյուրը պարունակում է 36 վիրտուալ պրոցեսոր, 72 ԳԲ օպերատիվ հիշողություն, 900 ԳԲ NVMe SSD պահեստավորում և աջակցում է 10 Գիգաբիթ ցանց: Նրանք արժեն $1,962/ժամ յուրաքանչյուրը eu-west-1 տարածաշրջանում, երբ աշխատում են ըստ պահանջի: Որպես օպերացիոն համակարգ ես կօգտագործեմ Ubuntu Server 16.04 LTS-ը:
Firewall-ը կազմաձևված է այնպես, որ յուրաքանչյուր մեքենա կարողանա շփվել միմյանց հետ առանց սահմանափակումների, և միայն իմ IPv4 հասցեն է սպիտակ ցուցակում SSH-ի կողմից կլաստերում:
NVMe շարժիչը գործառնական պատրաստության վիճակում է
Որպեսզի ClickHouse-ը աշխատի, ես կստեղծեմ ֆայլային համակարգ EXT4 ձևաչափով սերվերներից յուրաքանչյուրի NVMe սկավառակի վրա:
$ sudo mkfs -t ext4 /dev/nvme1n1
$ sudo mkdir /ch
$ sudo mount /dev/nvme1n1 /ch
Երբ ամեն ինչ կազմաձևված է, դուք կարող եք տեսնել ամրացման կետը և յուրաքանչյուր համակարգում հասանելի 783 ԳԲ տարածքը:
$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
loop0 7:0 0 87.9M 1 loop /snap/core/5742
loop1 7:1 0 16.5M 1 loop /snap/amazon-ssm-agent/784
nvme0n1 259:1 0 8G 0 disk
└─nvme0n1p1 259:2 0 8G 0 part /
nvme1n1 259:0 0 838.2G 0 disk /ch
$ df -h
Filesystem Size Used Avail Use% Mounted on
udev 35G 0 35G 0% /dev
tmpfs 6.9G 8.8M 6.9G 1% /run
/dev/nvme0n1p1 7.7G 967M 6.8G 13% /
tmpfs 35G 0 35G 0% /dev/shm
tmpfs 5.0M 0 5.0M 0% /run/lock
tmpfs 35G 0 35G 0% /sys/fs/cgroup
/dev/loop0 88M 88M 0 100% /snap/core/5742
/dev/loop1 17M 17M 0 100% /snap/amazon-ssm-agent/784
tmpfs 6.9G 0 6.9G 0% /run/user/1000
/dev/nvme1n1 825G 73M 783G 1% /ch
Տվյալների հավաքածուն, որը ես կօգտագործեմ այս թեստում, տվյալների աղբանոց է, որը ես ստեղծել եմ Նյու Յորքում վեց տարվա ընթացքում 1.1 միլիարդ տաքսիով ուղևորությունների արդյունքում: Բլոգում
$ sudo apt update
$ sudo apt install awscli
$ aws configure
Հաճախորդի միաժամանակյա հարցումների սահմանաչափը կսահմանեմ 100-ի, որպեսզի ֆայլերը ներբեռնվեն ավելի արագ, քան լռելյայն կարգավորումները:
$ aws configure set
default.s3.max_concurrent_requests
100
Ես կներբեռնեմ տաքսիով ուղևորությունների տվյալները AWS S3-ից և կպահեմ այն առաջին սերվերի NVMe սկավառակի վրա: Այս տվյալների հավաքածուն ~104 ԳԲ է GZIP սեղմված CSV ձևաչափով:
$ sudo mkdir -p /ch/csv
$ sudo chown -R ubuntu /ch/csv
$ aws s3 sync s3://<bucket>/csv /ch/csv
ClickHouse-ի տեղադրում
Ես կտեղադրեմ OpenJDK բաշխումը Java 8-ի համար, քանի որ այն պահանջվում է Apache ZooKeeper-ը գործարկելու համար, որն անհրաժեշտ է բոլոր երեք մեքենաների վրա ClickHouse-ի բաշխված տեղադրման համար:
$ sudo apt update
$ sudo apt install
openjdk-8-jre
openjdk-8-jdk-headless
Այնուհետև ես սահմանեցի շրջակա միջավայրի փոփոխականը JAVA_HOME
.
$ sudo vi /etc/profile
export JAVA_HOME=/usr
$ source /etc/profile
Այնուհետև ես կօգտագործեմ Ubuntu-ի փաթեթների կառավարման համակարգը՝ բոլոր երեք մեքենաների վրա ClickHouse 18.16.1, glances և ZooKeeper-ը տեղադրելու համար:
$ sudo apt-key adv
--keyserver hkp://keyserver.ubuntu.com:80
--recv E0C56BD4
$ echo "deb http://repo.yandex.ru/clickhouse/deb/stable/ main/" |
sudo tee /etc/apt/sources.list.d/clickhouse.list
$ sudo apt-get update
$ sudo apt install
clickhouse-client
clickhouse-server
glances
zookeeperd
Ես կստեղծեմ տեղեկատու ClickHouse-ի համար, ինչպես նաև կանեմ որոշ կոնֆիգուրացիաների անտեսում բոլոր երեք սերվերների վրա:
$ sudo mkdir /ch/clickhouse
$ sudo chown -R clickhouse /ch/clickhouse
$ sudo mkdir -p /etc/clickhouse-server/conf.d
$ sudo vi /etc/clickhouse-server/conf.d/taxis.conf
Սրանք կոնֆիգուրացիայի վերափոխումներ են, որոնք ես կօգտագործեմ:
<?xml version="1.0"?>
<yandex>
<listen_host>0.0.0.0</listen_host>
<path>/ch/clickhouse/</path>
<remote_servers>
<perftest_3shards>
<shard>
<replica>
<host>172.30.2.192</host>
<port>9000</port>
</replica>
</shard>
<shard>
<replica>
<host>172.30.2.162</host>
<port>9000</port>
</replica>
</shard>
<shard>
<replica>
<host>172.30.2.36</host>
<port>9000</port>
</replica>
</shard>
</perftest_3shards>
</remote_servers>
<zookeeper-servers>
<node>
<host>172.30.2.192</host>
<port>2181</port>
</node>
<node>
<host>172.30.2.162</host>
<port>2181</port>
</node>
<node>
<host>172.30.2.36</host>
<port>2181</port>
</node>
</zookeeper-servers>
<macros>
<shard>03</shard>
<replica>01</replica>
</macros>
</yandex>
Այնուհետև ես կգործարկեմ ZooKeeper-ը և ClickHouse սերվերը բոլոր երեք մեքենաների վրա:
$ sudo /etc/init.d/zookeeper start
$ sudo service clickhouse-server start
Տվյալների վերբեռնում ClickHouse
Առաջին սերվերի վրա ես կստեղծեմ ճամփորդական աղյուսակ (trips
), որը կպահի տաքսիով ուղևորությունների տվյալների հավաքածու՝ օգտագործելով Log շարժիչը:
$ clickhouse-client --host=0.0.0.0
CREATE TABLE trips (
trip_id UInt32,
vendor_id String,
pickup_datetime DateTime,
dropoff_datetime Nullable(DateTime),
store_and_fwd_flag Nullable(FixedString(1)),
rate_code_id Nullable(UInt8),
pickup_longitude Nullable(Float64),
pickup_latitude Nullable(Float64),
dropoff_longitude Nullable(Float64),
dropoff_latitude Nullable(Float64),
passenger_count Nullable(UInt8),
trip_distance Nullable(Float64),
fare_amount Nullable(Float32),
extra Nullable(Float32),
mta_tax Nullable(Float32),
tip_amount Nullable(Float32),
tolls_amount Nullable(Float32),
ehail_fee Nullable(Float32),
improvement_surcharge Nullable(Float32),
total_amount Nullable(Float32),
payment_type Nullable(String),
trip_type Nullable(UInt8),
pickup Nullable(String),
dropoff Nullable(String),
cab_type Nullable(String),
precipitation Nullable(Int8),
snow_depth Nullable(Int8),
snowfall Nullable(Int8),
max_temperature Nullable(Int8),
min_temperature Nullable(Int8),
average_wind_speed Nullable(Int8),
pickup_nyct2010_gid Nullable(Int8),
pickup_ctlabel Nullable(String),
pickup_borocode Nullable(Int8),
pickup_boroname Nullable(String),
pickup_ct2010 Nullable(String),
pickup_boroct2010 Nullable(String),
pickup_cdeligibil Nullable(FixedString(1)),
pickup_ntacode Nullable(String),
pickup_ntaname Nullable(String),
pickup_puma Nullable(String),
dropoff_nyct2010_gid Nullable(UInt8),
dropoff_ctlabel Nullable(String),
dropoff_borocode Nullable(UInt8),
dropoff_boroname Nullable(String),
dropoff_ct2010 Nullable(String),
dropoff_boroct2010 Nullable(String),
dropoff_cdeligibil Nullable(String),
dropoff_ntacode Nullable(String),
dropoff_ntaname Nullable(String),
dropoff_puma Nullable(String)
) ENGINE = Log;
Այնուհետև ես հանում և բեռնում եմ CSV ֆայլերից յուրաքանչյուրը ճամփորդական աղյուսակի մեջ (trips
) Հետևյալն ավարտվել է 55 րոպե 10 վայրկյանում. Այս գործողությունից հետո տվյալների գրացուցակի չափը կազմել է 134 ԳԲ:
$ time (for FILENAME in /ch/csv/trips_x*.csv.gz; do
echo $FILENAME
gunzip -c $FILENAME |
clickhouse-client
--host=0.0.0.0
--query="INSERT INTO trips FORMAT CSV"
done)
Ներմուծման արագությունը կազմում էր վայրկյանում 155 ՄԲ չսեղմված CSV բովանդակություն: Ես կասկածում եմ, որ դա պայմանավորված էր GZIP-ի ապակոմպրեսիայի խցանման պատճառով: Հնարավոր է, որ ավելի արագ լիներ բոլոր gzipped ֆայլերը զուգահեռաբար բացել xargs-ի միջոցով, իսկ հետո բեռնել unzipped տվյալները: Ստորև բերված է CSV ներմուծման գործընթացի ընթացքում հաղորդվածի նկարագրությունը:
$ sudo glances
ip-172-30-2-200 (Ubuntu 16.04 64bit / Linux 4.4.0-1072-aws) Uptime: 0:11:42
CPU 8.2% nice: 0.0% LOAD 36-core MEM 9.8% active: 5.20G SWAP 0.0%
user: 6.0% irq: 0.0% 1 min: 2.24 total: 68.7G inactive: 61.0G total: 0
system: 0.9% iowait: 1.3% 5 min: 1.83 used: 6.71G buffers: 66.4M used: 0
idle: 91.8% steal: 0.0% 15 min: 1.01 free: 62.0G cached: 61.6G free: 0
NETWORK Rx/s Tx/s TASKS 370 (507 thr), 2 run, 368 slp, 0 oth sorted automatically by cpu_percent, flat view
ens5 136b 2Kb
lo 343Mb 343Mb CPU% MEM% VIRT RES PID USER NI S TIME+ IOR/s IOW/s Command
100.4 1.5 1.65G 1.06G 9909 ubuntu 0 S 1:01.33 0 0 clickhouse-client --host=0.0.0.0 --query=INSERT INTO trips FORMAT CSV
DISK I/O R/s W/s 85.1 0.0 4.65M 708K 9908 ubuntu 0 R 0:50.60 32M 0 gzip -d -c /ch/csv/trips_xac.csv.gz
loop0 0 0 54.9 5.1 8.14G 3.49G 8091 clickhous 0 S 1:44.23 0 45M /usr/bin/clickhouse-server --config=/etc/clickhouse-server/config.xml
loop1 0 0 4.5 0.0 0 0 319 root 0 S 0:07.50 1K 0 kworker/u72:2
nvme0n1 0 3K 2.3 0.0 91.1M 28.9M 9912 root 0 R 0:01.56 0 0 /usr/bin/python3 /usr/bin/glances
nvme0n1p1 0 3K 0.3 0.0 0 0 960 root -20 S 0:00.10 0 0 kworker/28:1H
nvme1n1 32.1M 495M 0.3 0.0 0 0 1058 root -20 S 0:00.90 0 0 kworker/23:1H
Ես տեղ կազատեմ NVMe սկավառակում՝ ջնջելով բնօրինակ CSV ֆայլերը՝ շարունակելուց առաջ:
$ sudo rm -fr /ch/csv
Փոխարկել սյունակի ձևին
Log ClickHouse շարժիչը տվյալները կպահի տողերի վրա հիմնված ձևաչափով: Տվյալներն ավելի արագ հարցնելու համար ես դրանք վերածում եմ սյունակային ձևաչափի՝ օգտագործելով MergeTree շարժիչը:
$ clickhouse-client --host=0.0.0.0
Հետևյալն ավարտվել է 34 րոպե 50 վայրկյանում. Այս գործողությունից հետո տվյալների գրացուցակի չափը կազմել է 237 ԳԲ:
CREATE TABLE trips_mergetree
ENGINE = MergeTree(pickup_date, pickup_datetime, 8192)
AS SELECT
trip_id,
CAST(vendor_id AS Enum8('1' = 1,
'2' = 2,
'CMT' = 3,
'VTS' = 4,
'DDS' = 5,
'B02512' = 10,
'B02598' = 11,
'B02617' = 12,
'B02682' = 13,
'B02764' = 14)) AS vendor_id,
toDate(pickup_datetime) AS pickup_date,
ifNull(pickup_datetime, toDateTime(0)) AS pickup_datetime,
toDate(dropoff_datetime) AS dropoff_date,
ifNull(dropoff_datetime, toDateTime(0)) AS dropoff_datetime,
assumeNotNull(store_and_fwd_flag) AS store_and_fwd_flag,
assumeNotNull(rate_code_id) AS rate_code_id,
assumeNotNull(pickup_longitude) AS pickup_longitude,
assumeNotNull(pickup_latitude) AS pickup_latitude,
assumeNotNull(dropoff_longitude) AS dropoff_longitude,
assumeNotNull(dropoff_latitude) AS dropoff_latitude,
assumeNotNull(passenger_count) AS passenger_count,
assumeNotNull(trip_distance) AS trip_distance,
assumeNotNull(fare_amount) AS fare_amount,
assumeNotNull(extra) AS extra,
assumeNotNull(mta_tax) AS mta_tax,
assumeNotNull(tip_amount) AS tip_amount,
assumeNotNull(tolls_amount) AS tolls_amount,
assumeNotNull(ehail_fee) AS ehail_fee,
assumeNotNull(improvement_surcharge) AS improvement_surcharge,
assumeNotNull(total_amount) AS total_amount,
assumeNotNull(payment_type) AS payment_type_,
assumeNotNull(trip_type) AS trip_type,
pickup AS pickup,
pickup AS dropoff,
CAST(assumeNotNull(cab_type)
AS Enum8('yellow' = 1, 'green' = 2))
AS cab_type,
precipitation AS precipitation,
snow_depth AS snow_depth,
snowfall AS snowfall,
max_temperature AS max_temperature,
min_temperature AS min_temperature,
average_wind_speed AS average_wind_speed,
pickup_nyct2010_gid AS pickup_nyct2010_gid,
pickup_ctlabel AS pickup_ctlabel,
pickup_borocode AS pickup_borocode,
pickup_boroname AS pickup_boroname,
pickup_ct2010 AS pickup_ct2010,
pickup_boroct2010 AS pickup_boroct2010,
pickup_cdeligibil AS pickup_cdeligibil,
pickup_ntacode AS pickup_ntacode,
pickup_ntaname AS pickup_ntaname,
pickup_puma AS pickup_puma,
dropoff_nyct2010_gid AS dropoff_nyct2010_gid,
dropoff_ctlabel AS dropoff_ctlabel,
dropoff_borocode AS dropoff_borocode,
dropoff_boroname AS dropoff_boroname,
dropoff_ct2010 AS dropoff_ct2010,
dropoff_boroct2010 AS dropoff_boroct2010,
dropoff_cdeligibil AS dropoff_cdeligibil,
dropoff_ntacode AS dropoff_ntacode,
dropoff_ntaname AS dropoff_ntaname,
dropoff_puma AS dropoff_puma
FROM trips;
Ահա թե ինչ տեսք ուներ ակնթարթային ելքը գործողության ընթացքում.
ip-172-30-2-200 (Ubuntu 16.04 64bit / Linux 4.4.0-1072-aws) Uptime: 1:06:09
CPU 10.3% nice: 0.0% LOAD 36-core MEM 16.1% active: 13.3G SWAP 0.0%
user: 7.9% irq: 0.0% 1 min: 1.87 total: 68.7G inactive: 52.8G total: 0
system: 1.6% iowait: 0.8% 5 min: 1.76 used: 11.1G buffers: 71.8M used: 0
idle: 89.7% steal: 0.0% 15 min: 1.95 free: 57.6G cached: 57.2G free: 0
NETWORK Rx/s Tx/s TASKS 367 (523 thr), 1 run, 366 slp, 0 oth sorted automatically by cpu_percent, flat view
ens5 1Kb 8Kb
lo 2Kb 2Kb CPU% MEM% VIRT RES PID USER NI S TIME+ IOR/s IOW/s Command
241.9 12.8 20.7G 8.78G 8091 clickhous 0 S 30:36.73 34M 125M /usr/bin/clickhouse-server --config=/etc/clickhouse-server/config.xml
DISK I/O R/s W/s 2.6 0.0 90.4M 28.3M 9948 root 0 R 1:18.53 0 0 /usr/bin/python3 /usr/bin/glances
loop0 0 0 1.3 0.0 0 0 203 root 0 S 0:09.82 0 0 kswapd0
loop1 0 0 0.3 0.1 315M 61.3M 15701 ubuntu 0 S 0:00.40 0 0 clickhouse-client --host=0.0.0.0
nvme0n1 0 3K 0.3 0.0 0 0 7 root 0 S 0:00.83 0 0 rcu_sched
nvme0n1p1 0 3K 0.0 0.0 0 0 142 root 0 S 0:00.22 0 0 migration/27
nvme1n1 25.8M 330M 0.0 0.0 59.7M 1.79M 2764 ubuntu 0 S 0:00.00 0 0 (sd-pam)
Վերջին թեստում մի քանի սյունակներ փոխարկվեցին և վերահաշվարկվեցին: Ես պարզեցի, որ որոշ գործառույթներ այլևս չեն աշխատում, ինչպես սպասվում էր այս տվյալների բազայում: Այս խնդիրը լուծելու համար ես հեռացրեցի անհամապատասխան գործառույթները և բեռնեցի տվյալները՝ առանց ավելի հատիկավոր տեսակների փոխարկելու:
Տվյալների բաշխում կլաստերի վրա
Ես կբաշխեմ տվյալները բոլոր երեք կլաստերային հանգույցների վրա: Սկսելու համար, ստորև ես կստեղծեմ աղյուսակ բոլոր երեք մեքենաների վրա:
$ clickhouse-client --host=0.0.0.0
CREATE TABLE trips_mergetree_third (
trip_id UInt32,
vendor_id String,
pickup_date Date,
pickup_datetime DateTime,
dropoff_date Date,
dropoff_datetime Nullable(DateTime),
store_and_fwd_flag Nullable(FixedString(1)),
rate_code_id Nullable(UInt8),
pickup_longitude Nullable(Float64),
pickup_latitude Nullable(Float64),
dropoff_longitude Nullable(Float64),
dropoff_latitude Nullable(Float64),
passenger_count Nullable(UInt8),
trip_distance Nullable(Float64),
fare_amount Nullable(Float32),
extra Nullable(Float32),
mta_tax Nullable(Float32),
tip_amount Nullable(Float32),
tolls_amount Nullable(Float32),
ehail_fee Nullable(Float32),
improvement_surcharge Nullable(Float32),
total_amount Nullable(Float32),
payment_type Nullable(String),
trip_type Nullable(UInt8),
pickup Nullable(String),
dropoff Nullable(String),
cab_type Nullable(String),
precipitation Nullable(Int8),
snow_depth Nullable(Int8),
snowfall Nullable(Int8),
max_temperature Nullable(Int8),
min_temperature Nullable(Int8),
average_wind_speed Nullable(Int8),
pickup_nyct2010_gid Nullable(Int8),
pickup_ctlabel Nullable(String),
pickup_borocode Nullable(Int8),
pickup_boroname Nullable(String),
pickup_ct2010 Nullable(String),
pickup_boroct2010 Nullable(String),
pickup_cdeligibil Nullable(FixedString(1)),
pickup_ntacode Nullable(String),
pickup_ntaname Nullable(String),
pickup_puma Nullable(String),
dropoff_nyct2010_gid Nullable(UInt8),
dropoff_ctlabel Nullable(String),
dropoff_borocode Nullable(UInt8),
dropoff_boroname Nullable(String),
dropoff_ct2010 Nullable(String),
dropoff_boroct2010 Nullable(String),
dropoff_cdeligibil Nullable(String),
dropoff_ntacode Nullable(String),
dropoff_ntaname Nullable(String),
dropoff_puma Nullable(String)
) ENGINE = MergeTree(pickup_date, pickup_datetime, 8192);
Այնուհետև ես կհամոզվեմ, որ առաջին սերվերը կարող է տեսնել կլաստերի բոլոր երեք հանգույցները։
SELECT *
FROM system.clusters
WHERE cluster = 'perftest_3shards'
FORMAT Vertical;
Row 1:
──────
cluster: perftest_3shards
shard_num: 1
shard_weight: 1
replica_num: 1
host_name: 172.30.2.192
host_address: 172.30.2.192
port: 9000
is_local: 1
user: default
default_database:
Row 2:
──────
cluster: perftest_3shards
shard_num: 2
shard_weight: 1
replica_num: 1
host_name: 172.30.2.162
host_address: 172.30.2.162
port: 9000
is_local: 0
user: default
default_database:
Row 3:
──────
cluster: perftest_3shards
shard_num: 3
shard_weight: 1
replica_num: 1
host_name: 172.30.2.36
host_address: 172.30.2.36
port: 9000
is_local: 0
user: default
default_database:
Այնուհետև ես կսահմանեմ նոր աղյուսակ առաջին սերվերի վրա, որը հիմնված է սխեմայի վրա trips_mergetree_third
և օգտագործում է Distributed շարժիչը:
CREATE TABLE trips_mergetree_x3
AS trips_mergetree_third
ENGINE = Distributed(perftest_3shards,
default,
trips_mergetree_third,
rand());
Այնուհետև ես կպատճենեմ տվյալները MergeTree-ի վրա հիմնված աղյուսակից բոլոր երեք սերվերներին: Հետևյալը լրացվեց 34 րոպե 44 վայրկյանում.
INSERT INTO trips_mergetree_x3
SELECT * FROM trips_mergetree;
Վերոնշյալ գործողությունից հետո ես ClickHouse-ին 15 րոպե տվեցի, որպեսզի հեռանար պահեստավորման առավելագույն մակարդակի նշագծից: Տվյալների գրացուցակները երեք սերվերներից յուրաքանչյուրի վրա ավարտվեցին համապատասխանաբար 264 ԳԲ, 34 ԳԲ և 33 ԳԲ:
ClickHouse կլաստերի կատարողականի գնահատում
Այն, ինչ ես տեսա հաջորդը, ամենաարագ ժամանակն էր, երբ ես տեսել եմ, որ յուրաքանչյուր հարցումը մի քանի անգամ կատարել է սեղանի վրա trips_mergetree_x3
.
$ clickhouse-client --host=0.0.0.0
Հետևյալն ավարտվել է 2.449 վայրկյանում.
SELECT cab_type, count(*)
FROM trips_mergetree_x3
GROUP BY cab_type;
Հետևյալն ավարտվել է 0.691 վայրկյանում.
SELECT passenger_count,
avg(total_amount)
FROM trips_mergetree_x3
GROUP BY passenger_count;
Հետևյալն ավարտվել է 0 վայրկյանում.
SELECT passenger_count,
toYear(pickup_date) AS year,
count(*)
FROM trips_mergetree_x3
GROUP BY passenger_count,
year;
Հետևյալն ավարտվել է 0.983 վայրկյանում.
SELECT passenger_count,
toYear(pickup_date) AS year,
round(trip_distance) AS distance,
count(*)
FROM trips_mergetree_x3
GROUP BY passenger_count,
year,
distance
ORDER BY year,
count(*) DESC;
Համեմատության համար, ես նույն հարցումներն առաջադրեցի MergeTree-ի վրա հիմնված աղյուսակի վրա, որը գտնվում է բացառապես առաջին սերվերի վրա:
Մեկ ClickHouse հանգույցի կատարողականի գնահատում
Այն, ինչ ես տեսա հաջորդը, ամենաարագ ժամանակն էր, երբ ես տեսել եմ, որ յուրաքանչյուր հարցումը մի քանի անգամ կատարել է սեղանի վրա trips_mergetree_x3
.
Հետևյալն ավարտվել է 0.241 վայրկյանում.
SELECT cab_type, count(*)
FROM trips_mergetree
GROUP BY cab_type;
Հետևյալն ավարտվել է 0.826 վայրկյանում.
SELECT passenger_count,
avg(total_amount)
FROM trips_mergetree
GROUP BY passenger_count;
Հետևյալն ավարտվել է 1.209 վայրկյանում.
SELECT passenger_count,
toYear(pickup_date) AS year,
count(*)
FROM trips_mergetree
GROUP BY passenger_count,
year;
Հետևյալն ավարտվել է 1.781 վայրկյանում.
SELECT passenger_count,
toYear(pickup_date) AS year,
round(trip_distance) AS distance,
count(*)
FROM trips_mergetree
GROUP BY passenger_count,
year,
distance
ORDER BY year,
count(*) DESC;
Մտորումներ արդյունքների վերաբերյալ
Սա առաջին դեպքն է, երբ CPU-ի վրա հիմնված անվճար տվյալների բազան իմ թեստերում կարողացավ գերազանցել GPU-ի վրա հիմնված տվյալների բազան: Այդ GPU-ի վրա հիմնված տվյալների բազան այդ ժամանակից ի վեր անցել է երկու վերանայման, բայց այն կատարումը, որը ClickHouse-ը մատուցեց մեկ հանգույցի վրա, այնուամենայնիվ, շատ տպավորիչ է:
Միևնույն ժամանակ, բաշխված շարժիչի վրա հարցումը 1-ն իրականացնելիս, վերադիր ծախսերը մեծության կարգով ավելի բարձր են: Հուսով եմ, որ այս գրառման համար իմ հետազոտության մեջ ինչ-որ բան բաց եմ թողել, քանի որ լավ կլիներ տեսնել, որ հարցումների ժամանակները նվազում են, երբ ես ավելացնում եմ ավելի շատ հանգույցներ կլաստերին: Այնուամենայնիվ, հիանալի է, որ այլ հարցումներ կատարելիս կատարողականությունն աճել է մոտ 2 անգամ:
Հաճելի կլիներ տեսնել, թե ինչպես է ClickHouse-ը զարգանում, որպեսզի կարողանա առանձնացնել պահեստը և հաշվարկել, որպեսզի նրանք կարողանան ինքնուրույն մասշտաբավորվել: HDFS-ի աջակցությունը, որն ավելացվել է անցյալ տարի, կարող է քայլ լինել դեպի դա: Հաշվարկային առումով, եթե մեկ հարցումը կարող է արագացվել՝ կլաստերին ավելի շատ հանգույցներ ավելացնելով, ապա այս ծրագրաշարի ապագան շատ պայծառ է:
Շնորհակալություն այս գրառումը կարդալու համար ժամանակ տրամադրելու համար: Ես առաջարկում եմ խորհրդատվական, ճարտարապետության և պրակտիկայի զարգացման ծառայություններ Հյուսիսային Ամերիկայում և Եվրոպայում հաճախորդներին: Եթե ցանկանում եք քննարկել, թե ինչպես կարող են իմ առաջարկները օգնել ձեր բիզնեսին, խնդրում եմ կապվեք ինձ հետ
Source: www.habr.com