Clickhouse izmantoÅ”ana kÄ ELK, Big Query un TimescaleDB aizstÄjÄjs
Clickhouse ir atvÄrtÄ koda kolonnu datu bÄzes pÄrvaldÄ«bas sistÄma tieÅ”saistes analÄ«tisko vaicÄjumu apstrÄdei (OLAP), ko izveidojis Yandex. To izmanto Yandex, CloudFlare, VK.com, Badoo un citi servisi visÄ pasaulÄ, lai uzglabÄtu patieÅ”Äm lielu datu apjomu (tÅ«kstoÅ”iem rindu sekundÄ vai diskÄ saglabÄto datu petabaitu ievietoÅ”ana).
ParastÄ āvirknesā DBVS, kuras piemÄri ir MySQL, Postgres, MS SQL Server, dati tiek glabÄti Å”ÄdÄ secÄ«bÄ:
Å ajÄ gadÄ«jumÄ ar vienu rindu saistÄ«tÄs vÄrtÄ«bas tiek fiziski saglabÄtas blakus. Kolonnu DBVS vÄrtÄ«bas no dažÄdÄm kolonnÄm tiek glabÄtas atseviŔķi, un vienas kolonnas dati tiek glabÄti kopÄ:
Kolonnu DBVS piemÄri ir Vertica, Paraccel (Actian Matrix, Amazon Redshift), Sybase IQ, Exasol, Infobright, InfiniDB, MonetDB (VectorWise, Actian Vector), LucidDB, SAP HANA, Google Dremel, Google PowerDrill, Druid, kdb+.
Pasta ekspeditoru uzÅÄmums Kvintrija 2018. gadÄ sÄka izmantot Clickhouse pÄrskatu sniegÅ”anai un bija ļoti pÄrsteigts ar tÄ vienkÄrŔību, mÄrogojamÄ«bu, SQL atbalstu un Ätrumu. Å Ä«s DBVS Ätrums robežojÄs ar maÄ£iju.
VienkÄrŔība
Clickhouse instalÄ Ubuntu ar vienu komandu. Ja zinÄt SQL, varat nekavÄjoties sÄkt izmantot Clickhouse savÄm vajadzÄ«bÄm. TomÄr tas nenozÄ«mÄ, ka pakalpojumÄ MySQL varat veikt āparÄdÄ«t tabulu izveideiā un nokopÄt un ielÄ«mÄt SQL pakalpojumÄ Clickhouse.
SalÄ«dzinot ar MySQL, tabulu shÄmu definÄ«cijÄs ir bÅ«tiskas datu tipu atŔķirÄ«bas, tÄpÄc jums joprojÄm bÅ«s nepiecieÅ”ams zinÄms laiks, lai mainÄ«tu tabulas shÄmas definÄ«cijas un apgÅ«tu tabulu dzinÄjus, lai justos Ärti.
Clickhouse darbojas lieliski bez papildu programmatÅ«ras, taÄu, ja vÄlaties izmantot replikÄciju, jums bÅ«s jÄinstalÄ ZooKeeper. VaicÄjumu veiktspÄjas analÄ«ze uzrÄda izcilus rezultÄtus ā sistÄmas tabulÄs ir visa informÄcija, un visus datus var izgÅ«t, izmantojot veco un garlaicÄ«go SQL.
ŠŃŠ¾ŠøŠ·Š²Š¾Š“ŠøŃŠµŠ»ŃŠ½Š¾ŃŃŃ
Etalons Clickhouse salÄ«dzinÄjumi ar Vertica un MySQL servera konfigurÄcijÄ: divas ligzdas IntelĀ® XeonĀ® CPU E5-2650 v2 @ 2.60 GHz; 128 GiB RAM; md RAID-5 uz 8 6 TB SATA HDD, ext4.
Etalons Clickhouse salÄ«dzinÄjums ar Amazon RedShift mÄkoÅkrÄtuvi.
ClickHouse datubÄzei ir ļoti vienkÄrÅ”s dizains ā visiem klastera mezgliem ir vienÄda funkcionalitÄte un koordinÄcijai tiek izmantots tikai ZooKeeper. MÄs izveidojÄm nelielu vairÄku mezglu kopu un veicÄm testÄÅ”anu, kuras laikÄ atklÄjÄm, ka sistÄmai ir diezgan iespaidÄ«gs sniegums, kas atbilst apgalvotajÄm priekÅ”rocÄ«bÄm analÄ«tiskajos DBVS etalonos. MÄs nolÄmÄm tuvÄk apskatÄ«t ClickHouse koncepciju. Pirmais ŔķÄrslis pÄtniecÄ«bai bija rÄ«ku trÅ«kums un nelielÄ ClickHouse kopiena, tÄpÄc mÄs iedziļinÄjÄmies Ŕīs DBVS dizainÄ, lai saprastu, kÄ tÄ darbojas.
ClickHouse neatbalsta datu saÅemÅ”anu tieÅ”i no Kafka, jo tÄ ir tikai datu bÄze, tÄpÄc mÄs izveidojÄm paÅ”i savu adaptera pakalpojumu Go. Tas nolasÄ«ja Cap'n Proto kodÄtos ziÅojumus no Kafka, pÄrveidoja tos par TSV un ievietoja tos ClickHouse partijÄs, izmantojot HTTP saskarni. VÄlÄk mÄs pÄrrakstÄ«jÄm Å”o pakalpojumu, lai izmantotu Go bibliotÄku kopÄ ar ClickHouse interfeisu, lai uzlabotu veiktspÄju. IzvÄrtÄjot pakeÅ”u saÅemÅ”anas veiktspÄju, atklÄjÄm bÅ«tisku lietu - izrÄdÄ«jÄs, ka ClickHouse Ŕī veiktspÄja stipri ir atkarÄ«ga no paketes izmÄra, tas ir, vienlaicÄ«gi ievietoto rindu skaita. Lai saprastu, kÄpÄc tas notiek, mÄs apskatÄ«jÄm, kÄ ClickHouse uzglabÄ datus.
Galvenais dzinÄjs vai drÄ«zÄk tabulu dzinÄju saime, ko ClickHouse izmanto datu glabÄÅ”anai, ir MergeTree. Å is dzinÄjs ir konceptuÄli lÄ«dzÄ«gs LSM algoritmam, ko izmanto Google BigTable vai Apache Cassandra, taÄu izvairÄs veidot starpposma atmiÅas tabulu un ieraksta datus tieÅ”i diskÄ. Tas nodroÅ”ina izcilu rakstÄ«Å”anas caurlaidspÄju, jo katra ievietotÄ pakete tiek kÄrtota tikai pÄc primÄrÄs atslÄgas, saspiesta un ierakstÄ«ta diskÄ, veidojot segmentu.
AtmiÅas tabulas vai datu āsvaigumaā jÄdziena trÅ«kums arÄ« nozÄ«mÄ, ka tos var tikai pievienot; sistÄma neatbalsta mainÄ«Å”anu vai dzÄÅ”anu. PaÅ”laik vienÄ«gais veids, kÄ dzÄst datus, ir dzÄst tos pÄc kalendÄrÄ mÄneÅ”a, jo segmenti nekad nepÄrsniedz mÄneÅ”a robežu. ClickHouse komanda aktÄ«vi strÄdÄ, lai padarÄ«tu Å”o funkciju pielÄgojamu. No otras puses, tas padara segmentu rakstÄ«Å”anu un sapludinÄÅ”anu bez strÄ«diem, tÄpÄc saÅemiet caurlaidspÄjas skalas lineÄri ar vienlaicÄ«gu ievietojumu skaitu, lÄ«dz notiek I/O vai kodola piesÄtinÄjums.
TaÄu Å”is apstÄklis āānozÄ«mÄ arÄ« to, ka sistÄma nav piemÄrota mazÄm paketÄm, tÄpÄc buferÄÅ”anai tiek izmantoti Kafka servisi un ievietotÄji. TurklÄt ClickHouse fonÄ turpina nepÄrtraukti apvienot segmentus, lai daudzas mazas informÄcijas daļas tiktu apvienotas un ierakstÄ«tas vairÄk reižu, tÄdÄjÄdi palielinot ierakstÄ«Å”anas intensitÄti. TomÄr pÄrÄk daudz nesaistÄ«tu detaļu izraisÄ«s agresÄ«vu ieliktÅu droseli, kamÄr saplÅ«Å”ana turpinÄsies. MÄs esam noskaidrojuÅ”i, ka labÄkais kompromiss starp reÄllaika datu ievadi un ievades veiktspÄju ir tabulÄ pieÅemt ierobežotu skaitu ievietoÅ”anas gadÄ«jumu sekundÄ.
Tabulas lasÄ«Å”anas veiktspÄjas atslÄga ir datu indeksÄÅ”ana un atraÅ”anÄs vieta diskÄ. NeatkarÄ«gi no tÄ, cik Ätra ir apstrÄde, kad dzinÄjam ir jÄskenÄ terabaiti datu no diska un jÄizmanto tikai daļa no tiem, tas prasÄ«s laiku. ClickHouse ir kolonnu veikals, tÄpÄc katrÄ segmentÄ ir fails katrai kolonnai (kolonnai) ar sakÄrtotÄm vÄrtÄ«bÄm katrai rindai. TÄdÄjÄdi visas kolonnas, kas nav vaicÄjumÄ, vispirms var izlaist un pÄc tam var apstrÄdÄt vairÄkas Ŕūnas paralÄli vektorizÄtai izpildei. Lai izvairÄ«tos no pilnÄ«gas skenÄÅ”anas, katram segmentam ir neliels indeksa fails.
Å emot vÄrÄ, ka visas kolonnas ir sakÄrtotas pÄc "primÄrÄs atslÄgas", indeksa failÄ ir tikai katras N rindas etiÄ·etes (tvertÄs rindas), lai tÄs varÄtu saglabÄt atmiÅÄ pat ļoti lielÄm tabulÄm. PiemÄram, varat iestatÄ«t noklusÄjuma iestatÄ«jumus uz "atzÄ«mÄt katru 8192. rindu", pÄc tam "niecÄ«go" tabulas indeksÄciju ar 1 triljonu. rindas, kas viegli iekļaujas atmiÅÄ, aizÅemtu tikai 122 070 rakstzÄ«mes.
SistÄmas izstrÄde
Clickhouse attÄ«stÄ«bai un uzlaboÅ”anai var izsekot Github repo un pÄrliecinieties, ka āpieaugÅ”anasā process notiek iespaidÄ«gÄ tempÄ.
PopularitÄte
Å Ä·iet, ka Clickhouse popularitÄte pieaug eksponenciÄli, Ä«paÅ”i krievvalodÄ«go kopienÄ. PagÄjuÅ”Ä gada High load 2018 konference (Maskava, 8. gada 9.ā2018. novembris) parÄdÄ«ja, ka tÄdi monstri kÄ vk.com un Badoo izmanto Clickhouse, ar kuru vienlaikus ievieto datus (piemÄram, žurnÄlus) no desmitiem tÅ«kstoÅ”u serveru. 40 minÅ«Å”u video Jurijs Nasretdinovs no VKontakte komandas stÄsta par to, kÄ tas tiek darÄ«ts. DrÄ«zumÄ mÄs publicÄsim stenogrammu vietnÄ Habr, lai atvieglotu darbu ar materiÄlu.
Pieteikumi
PÄc kÄda laika izpÄtei, manuprÄt, ir jomas, kurÄs ClickHouse varÄtu bÅ«t noderÄ«ga vai pilnÄ«bÄ aizstÄt citus, tradicionÄlÄkus un populÄrÄkus risinÄjumus, piemÄram, MySQL, PostgreSQL, ELK, Google Big Query, Amazon RedShift, TimescaleDB, Hadoop, MapReduce, Pinot un DruÄ«ds. TÄlÄk ir aprakstÄ«ta informÄcija par ClickHouse izmantoÅ”anu, lai modernizÄtu vai pilnÄ«bÄ aizstÄtu iepriekÅ” minÄto DBVS.
MySQL un PostgreSQL paplaÅ”inÄÅ”ana
Pavisam nesen mÄs biļetenu platformai daļÄji aizstÄjÄm MySQL ar ClickHouse Mautic biļetens. ProblÄma bija tÄ, ka MySQL slikta dizaina dÄļ reÄ£istrÄja katru nosÅ«tÄ«to e-pastu un katru saiti Å”ajÄ e-pastÄ ar base64 jaucÄjkodu, izveidojot milzÄ«gu MySQL tabulu (email_stats). PÄc tikai 10 miljonu e-pasta ziÅojumu nosÅ«tÄ«Å”anas pakalpojumu abonentiem Ŕī tabula aizÅÄma 150 GB faila vietas, un MySQL sÄka bÅ«t āstulbaā vienkÄrÅ”os vaicÄjumos. Lai novÄrstu faila vietas problÄmu, mÄs veiksmÄ«gi izmantojÄm InnoDB tabulas saspieÅ”anu, kas to samazinÄja par 4 reizÄm. TomÄr joprojÄm nav jÄgas MySQL glabÄt vairÄk nekÄ 20ā30 miljonus e-pasta ziÅojumu tikai lasÄ«Å”anas vÄstures labad, jo jebkurÅ” vienkÄrÅ”s vaicÄjums, kuram kaut kÄdu iemeslu dÄļ ir jÄveic pilna skenÄÅ”ana, rada mijmaiÅas un daudz /O slodze, saskaÅÄ ar kuru regulÄri saÅÄmÄm Zabbix brÄ«dinÄjumus.
Clickhouse izmanto divus saspieÅ”anas algoritmus, kas aptuveni samazina datu apjomu 3-4 reizes, taÄu Å”ajÄ konkrÄtajÄ gadÄ«jumÄ dati bija Ä«paÅ”i "saspiežami".
ELK nomaiÅa
Pamatojoties uz manu pieredzi, ELK kaudze (ElasticSearch, Logstash un Kibana, Å”ajÄ konkrÄtajÄ gadÄ«jumÄ ElasticSearch) prasa daudz vairÄk resursu, nekÄ nepiecieÅ”ams žurnÄlu glabÄÅ”anai. ElasticSearch ir lieliska programma, ja vÄlaties labu pilna teksta žurnÄlu meklÄÅ”anu (kas, manuprÄt, jums nav Ä«sti vajadzÄ«ga), taÄu man rodas jautÄjums, kÄpÄc tÄ ir kļuvusi par de facto standarta reÄ£istrÄÅ”anas dzinÄju. TÄs pÄrsÅ«tÄ«Å”anas veiktspÄja kopÄ ar Logstash radÄ«ja problÄmas pat pie diezgan nelielas darba slodzes, un bija nepiecieÅ”ams pievienot arvien vairÄk RAM un diska vietas. KÄ datu bÄze Clickhouse ir labÄka par ElasticSearch Å”Ädu iemeslu dÄļ:
SQL dialektu atbalsts;
LabÄkÄ saglabÄto datu saspieÅ”anas pakÄpe;
Atbalsts Regex regulÄro izteiksmju meklÄÅ”anai pilna teksta meklÄÅ”anas vietÄ;
Uzlabota vaicÄjumu plÄnoÅ”ana un augstÄka vispÄrÄjÄ veiktspÄja.
Å obrÄ«d lielÄkÄ problÄma, kas rodas, salÄ«dzinot ClickHouse ar ELK, ir risinÄjumu trÅ«kums žurnÄlu augÅ”upielÄdei, kÄ arÄ« dokumentÄcijas un pamÄcÄ«bu trÅ«kums par Å”o tÄmu. TurklÄt katrs lietotÄjs var konfigurÄt ELK, izmantojot Digital Ocean rokasgrÄmatu, kas ir ļoti svarÄ«gi Å”Ädu tehnoloÄ£iju Ätrai ievieÅ”anai. Ir datu bÄzes dzinÄjs, bet vÄl nav Filebeat for ClickHouse. JÄ, tas ir tur tekoÅ”i un sistÄma darbam ar baļķiem guļbÅ«ve, ir rÄ«ks klikŔķaste lai ievadÄ«tu žurnÄlfaila datus ClickHouse, taÄu tas viss aizÅem vairÄk laika. TomÄr ClickHouse joprojÄm ir lÄ«deris savas vienkÄrŔības dÄļ, tÄpÄc pat iesÄcÄji to var viegli uzstÄdÄ«t un sÄkt lietot pilnÄ«bÄ funkcionÄli tikai 10 minÅ«Å”u laikÄ.
Dodot priekÅ”roku minimÄlisma risinÄjumiem, es mÄÄ£inÄju izmantot FluentBit, ļoti maz atmiÅas žurnÄlu augÅ”upielÄdes rÄ«ku, ar ClickHouse, vienlaikus cenÅ”oties izvairÄ«ties no Kafka lietoÅ”anas. TomÄr ir jÄnovÄrÅ” nelielas nesaderÄ«bas, piemÄram, datuma formÄta problÄmasPirms to var izdarÄ«t bez starpniekservera slÄÅa, kas pÄrvÄrÅ” datus no FluentBit uz ClickHouse.
KÄ alternatÄ«vu Kibana var izmantot kÄ ClickHouse aizmugursistÄmu grafana. Cik es saprotu, tas var izraisÄ«t veiktspÄjas problÄmas, renderÄjot milzÄ«gu skaitu datu punktu, Ä«paÅ”i ar vecÄkÄm Grafana versijÄm. MÄs to vÄl neesam izmÄÄ£inÄjuÅ”i vietnÄ Qwintry, bet sÅ«dzÄ«bas par to laiku pa laikam parÄdÄs Telegram ClickHouse atbalsta kanÄlÄ.
Google Big Query un Amazon RedShift nomaiÅa (risinÄjums lieliem uzÅÄmumiem)
IdeÄls BigQuery izmantoÅ”anas gadÄ«jums ir ielÄdÄt 1 TB JSON datu un tajÄ izpildÄ«t analÄ«tiskos vaicÄjumus. Big Query ir lielisks produkts, kura mÄrogojamÄ«bu ir grÅ«ti pÄrvÄrtÄt. Å Ä« ir daudz sarežģītÄka programmatÅ«ra nekÄ ClickHouse, kas darbojas iekÅ”ÄjÄ klasterÄ«, taÄu no klienta viedokļa tai ir daudz kopÄ«ga ar ClickHouse. BigQuery var Ätri paaugstinÄt cenu, tiklÄ«dz sÄkat maksÄt par katru SELECT, tÄpÄc tas ir Ä«sts SaaS risinÄjums ar visiem tÄ plusiem un mÄ«nusiem.
ClickHouse ir labÄkÄ izvÄle, ja veicat daudz skaitļoÅ”anas ziÅÄ dÄrgu vaicÄjumu. Jo vairÄk SELECT vaicÄjumu izpildÄt katru dienu, jo lietderÄ«gÄk ir aizstÄt Big Query ar ClickHouse, jo Å”Äda aizstÄÅ”ana var ietaupÄ«t tÅ«kstoÅ”iem dolÄru, ja runa ir par daudzu terabaitu datu apstrÄdi. Tas neattiecas uz saglabÄtajiem datiem, kuru apstrÄde programmÄ Big Query ir diezgan lÄta.
Altinity lÄ«dzdibinÄtÄja Aleksandra Zaiceva rakstÄ "PÄrcelÅ”anÄs uz ClickHouse" apraksta Å”Ädas DBVS migrÄcijas priekÅ”rocÄ«bas.
Lai gan ClickHouse nav nopietns konkurents laikrindu niÅ”Ä, taÄu kolonnu struktÅ«ras un vektora vaicÄjumu izpilde, vairumÄ analÄ«tisko vaicÄjumu apstrÄdes gadÄ«jumu ir daudz ÄtrÄka par TimescaleDB. TajÄ paÅ”Ä laikÄ pakeÅ”u datu saÅemÅ”anas veiktspÄja no ClickHouse ir aptuveni 3 reizes lielÄka, un tÄ arÄ« izmanto 20 reizes mazÄk vietas diskÄ, kas ir patieÅ”Äm svarÄ«gi liela apjoma vÄsturisko datu apstrÄdei: āØhttps://www.altinity.com/blog/ClickHouse-for-time-series.
AtŔķirÄ«bÄ no ClickHouse, vienÄ«gais veids, kÄ ietaupÄ«t vietu diskÄ TimescaleDB, ir izmantot ZFS vai lÄ«dzÄ«gas failu sistÄmas.
GaidÄmie ClickHouse atjauninÄjumi, iespÄjams, ieviesÄ«s delta saspieÅ”anu, kas padarÄ«s to vÄl piemÄrotÄku laikrindu datu apstrÄdei un glabÄÅ”anai. TimescaleDB var bÅ«t labÄka izvÄle nekÄ tukÅ”a ClickHouse Å”Ädos gadÄ«jumos:
mazas instalÄcijas ar ļoti mazu operatÄ«vo atmiÅu (<3 GB);
liels skaits mazu INSERT, kurus nevÄlaties buferizÄt lielos fragmentos;
labÄka konsistence, viendabÄ«gums un SKÄBES prasÄ«bas;
PostGIS atbalsts;
savienoÅ”ana ar esoÅ”ajÄm PostgreSQL tabulÄm, jo āāTimescale DB bÅ«tÄ«bÄ ir PostgreSQL.
Konkurence ar Hadoop un MapReduce sistÄmÄm
Hadoop un citi MapReduce produkti var veikt daudz sarežģītu aprÄÄ·inu, taÄu tie mÄdz darboties ar milzÄ«gu latentumu. ClickHouse novÄrÅ” Å”o problÄmu, apstrÄdÄjot terabaitus datu un gandrÄ«z uzreiz iegÅ«stot rezultÄtus. TÄdÄjÄdi ClickHouse ir daudz efektÄ«vÄks, veicot Ätrus, interaktÄ«vus analÄ«tiskos pÄtÄ«jumus, kam vajadzÄtu interesÄt datu zinÄtniekus.
Sacensības ar Pinot un Druid
ClickHouse tuvÄkie konkurenti ir kolonnveida, lineÄri mÄrogojami atvÄrtÄ pirmkoda produkti Pinot un Druid. RakstÄ ir publicÄts lielisks Å”o sistÄmu salÄ«dzinÄÅ”anas darbs RomÄna Leventova 1. gada 2018. februÄris
Å is raksts ir jÄatjaunina - tajÄ teikts, ka ClickHouse neatbalsta UPDATE un DELETE darbÄ«bas, kas nav pilnÄ«bÄ taisnÄ«ba jaunÄkajÄm versijÄm.
Mums nav lielas pieredzes ar Ŕīm DBVS, taÄu man nepatÄ«k pamatÄ esoÅ”Äs infrastruktÅ«ras sarežģītÄ«ba, kas nepiecieÅ”ama Druid un Pinot darbinÄÅ”anai - tÄ ir vesela virkne "kustÄ«gu daļu", ko no visÄm pusÄm ieskauj Java.
Druid un Pinot ir Apache inkubatoru projekti, par kuru gaitu Apache ir detalizÄti atspoguļots savÄs GitHub projektu lapÄs. Pinots inkubatorÄ parÄdÄ«jÄs 2018. gada oktobrÄ«, un DruÄ«ds piedzima 8 mÄneÅ”us agrÄk - februÄrÄ«.
InformÄcijas trÅ«kums par to, kÄ darbojas AFS, man rada dažus un, iespÄjams, muļķīgus jautÄjumus. Interesanti, vai Pinot autori pamanÄ«ja, ka Apache fonds ir labvÄlÄ«gÄks pret DruÄ«du, un vai Å”Äda attieksme pret konkurentu radÄ«ja skaudÄ«bas sajÅ«tu? Vai DruÄ«da attÄ«stÄ«ba palÄninÄsies un Pinot attÄ«stÄ«ba paÄtrinÄsies, ja pirmÄ atbalstÄ«tÄji pÄkÅ”Åi sÄks interesÄties par otro?
ClickHouse trūkumi
Nenobriedums: AcÄ«mredzot Ŕī joprojÄm nav garlaicÄ«ga tehnoloÄ£ija, taÄu jebkurÄ gadÄ«jumÄ nekas tÄds nav novÄrots citÄs kolonnu DBVS.
Mazie ieliktÅi nedarbojas labi lielÄ ÄtrumÄ: ieliktÅi ir jÄsadala lielÄkos gabalos, jo mazo ieliktÅu veiktspÄja pasliktinÄs proporcionÄli kolonnu skaitam katrÄ rindÄ. TÄdÄ veidÄ ClickHouse saglabÄ datus diskÄ ā katra kolonna apzÄ«mÄ 1 vai vairÄk failu, tÄpÄc, lai ievietotu 1 rindu, kurÄ ir 100 kolonnas, ir jÄatver un jÄieraksta vismaz 100 faili. TÄpÄc buferizÄcijas ieliktÅiem ir nepiecieÅ”ams starpnieks (ja vien klients pats nenodroÅ”ina buferizÄciju) - parasti Kafka vai kÄda veida rindu pÄrvaldÄ«bas sistÄma. Varat arÄ« izmantot bufera tabulas programmu, lai vÄlÄk kopÄtu lielus datu gabalus MergeTree tabulÄs.
Tabulu savienojumus ierobežo servera RAM, bet vismaz tie ir tur! PiemÄram, Druid un Pinot Å”Ädu savienojumu vispÄr nav, jo tos ir grÅ«ti ieviest tieÅ”i sadalÄ«tÄs sistÄmÄs, kas neatbalsta lielu datu gabalu pÄrvietoÅ”anu starp mezgliem.
Atzinumi
NÄkamajos gados mÄs plÄnojam plaÅ”i izmantot ClickHouse programmÄ Qwintry, jo Ŕī DBVS nodroÅ”ina izcilu veiktspÄjas lÄ«dzsvaru, zemas pieskaitÄmÄs izmaksas, mÄrogojamÄ«bu un vienkÄrŔību. Esmu diezgan pÄrliecinÄts, ka tas sÄks Ätri izplatÄ«ties, tiklÄ«dz ClickHouse kopiena nÄks klajÄ ar vairÄkiem veidiem, kÄ to izmantot mazÄs un vidÄja izmÄra instalÄcijÄs.