私の名前は Igor Sidorenko です。Domclick のインフラストラクチャ全体を保守する管理者チームの技術リーダーです。
Elasticsearch での分散データ ストレージのセットアップに関する私の経験を共有したいと思います。 ノード上のどの設定がシャードの分散に影響するのか、ILM がどのように機能するのかを見ていきます。
ログを扱う人は、何らかの形で、後の分析のために長期保存するという問題に直面します。 Elasticsearch では、キュレーター機能ではすべてが残念だったため、これは特に当てはまります。 バージョン 6.6 では ILM 機能が導入されました。 これは 4 つのフェーズで構成されます。
- ホット - インデックスはアクティブに更新され、クエリが実行されています。
- Warm - インデックスは更新されませんが、クエリは引き続き実行されます。
- Cold - インデックスは更新されなくなり、ほとんどクエリされなくなります。 情報は引き続き検索可能である必要がありますが、クエリは遅くなる可能性があります。
- 削除 - インデックスは不要になったので、安全に削除できます。
与えられた
- Elasticsearch Data Hot: 24 プロセッサ、128 GB メモリ、1,8 TB SSD RAID 10 (8 ノード)。
- Elasticsearch Data Warm: 24 プロセッサ、64 GB メモリ、8 TB NetApp SSD ポリシー (4 ノード)。
- Elasticsearch Data Cold: 8 プロセッサ、32 GB メモリ、128 TB HDD RAID 10 (4 ノード)。
目標
これらの設定は個別であり、すべてノード上の場所、インデックス、ログなどの数によって異なります。 2 日あたり 3 ~ XNUMX TB のデータがあります。
- 5 日間 - ホットフェーズ (8 メイン / 1 レプリカ)。
- 20 日 - 暖かい段階 (
シュリンクインデックス メイン 4 つ / レプリカ 1 つ)。 - 90 日 - 低温期 (
フリーズインデックス メイン 4 つ / レプリカ 1 つ)。 - 120 日 - 削除フェーズ。
Elasticsearch のセットアップ
ノード間でシャードを分散するには、パラメータが XNUMX つだけ必要です。
- ホット-ノード:
~]# cat /etc/elasticsearch/elasticsearch.yml | grep attr # Add custom attributes to the node: node.attr.box_type: hot
- 暖かい-ノード:
~]# cat /etc/elasticsearch/elasticsearch.yml | grep attr # Add custom attributes to the node: node.attr.box_type: warm
- コールド-ノード:
~]# cat /etc/elasticsearch/elasticsearch.yml | grep attr # Add custom attributes to the node: node.attr.box_type: cold
Logstash のセットアップ
すべてはどのように機能するのでしょうか?また、この機能はどのように実装したのでしょうか? まずは Elasticsearch にログを取得しましょう。 次の XNUMX つの方法があります。
- Logstash は Kafka からログを取得します。 クリーンな状態で拾うことも、自分の側で変換することもできます。
- APM サーバーなど、それ自体が Elasticsearch に書き込みます。
Logstash を通じてインデックスを管理する例を考えてみましょう。 インデックスを作成して適用します
k8s-ingress.conf
input {
kafka {
bootstrap_servers => "node01, node02, node03"
topics => ["ingress-k8s"]
decorate_events => false
codec => "json"
}
}
filter {
ruby {
path => "/etc/logstash/conf.d/k8s-normalize.rb"
}
if [log] =~ "[warn]" or [log] =~ "[error]" or [log] =~ "[notice]" or [log] =~ "[alert]" {
grok {
match => { "log" => "%{DATA:[nginx][error][time]} [%{DATA:[nginx][error][level]}] %{NUMBER:[nginx][error][pid]}#%{NUMBER:[nginx][error][tid]}: *%{NUMBER:[nginx][error][connection_id]} %{DATA:[nginx][error][message]}, client: %{IPORHOST:[nginx][error][remote_ip]}, server: %{DATA:[nginx][error][server]}, request: "%{WORD:[nginx][error][method]} %{DATA:[nginx][error][url]} HTTP/%{NUMBER:[nginx][error][http_version]}", (?:upstream: "%{DATA:[nginx][error][upstream][proto]}://%{DATA:[nginx][error][upstream][host]}:%{DATA:[nginx][error][upstream][port]}/%{DATA:[nginx][error][upstream][url]}", )?host: "%{DATA:[nginx][error][host]}"(?:, referrer: "%{DATA:[nginx][error][referrer]}")?" }
remove_field => "log"
}
}
else {
grok {
match => { "log" => "%{IPORHOST:[nginx][access][host]} - [%{IPORHOST:[nginx][access][remote_ip]}] - %{DATA:[nginx][access][remote_user]} [%{HTTPDATE:[nginx][access][time]}] "%{WORD:[nginx][access][method]} %{DATA:[nginx][access][url]} HTTP/%{NUMBER:[nginx][access][http_version]}" %{NUMBER:[nginx][access][response_code]} %{NUMBER:[nginx][access][bytes_sent]} "%{DATA:[nginx][access][referrer]}" "%{DATA:[nginx][access][agent]}" %{NUMBER:[nginx][access][request_lenght]} %{NUMBER:[nginx][access][request_time]} [%{DATA:[nginx][access][upstream][name]}] (?:-|%{IPORHOST:[nginx][access][upstream][addr]}:%{NUMBER:[nginx][access][upstream][port]}) (?:-|%{NUMBER:[nginx][access][upstream][response_lenght]}) %{DATA:[nginx][access][upstream][response_time]} %{DATA:[nginx][access][upstream][status]} %{DATA:[nginx][access][request_id]}" }
remove_field => "log"
}
}
}
output {
elasticsearch {
id => "k8s-ingress"
hosts => ["node01", "node02", "node03", "node04", "node05", "node06", "node07", "node08"]
manage_template => true # включаем управление шаблонами
template_name => "k8s-ingress" # имя применяемого шаблона
ilm_enabled => true # включаем управление ILM
ilm_rollover_alias => "k8s-ingress" # alias для записи в индексы, должен быть уникальным
ilm_pattern => "{now/d}-000001" # шаблон для создания индексов, может быть как "{now/d}-000001" так и "000001"
ilm_policy => "k8s-ingress" # политика прикрепляемая к индексу
index => "k8s-ingress-%{+YYYY.MM.dd}" # название создаваемого индекса, может содержать %{+YYYY.MM.dd}, зависит от ilm_pattern
}
}
キバナのセットアップ
すべての新しいインデックスに適用される基本パターンがあります。 ホットインデックスの分布、シャード、レプリカの数などを設定します。 テンプレートの重みはオプションによって決まります order
。 より高い重みを持つテンプレートは、既存のテンプレート パラメータをオーバーライドするか、新しいパラメータを追加します。
GET _template/デフォルト
{
"default" : {
"order" : -1, # вес шаблона
"version" : 1,
"index_patterns" : [
"*" # применяем ко всем индексам
],
"settings" : {
"index" : {
"codec" : "best_compression", # уровень сжатия
"routing" : {
"allocation" : {
"require" : {
"box_type" : "hot" # распределяем только по горячим нодам
},
"total_shards_per_node" : "8" # максимальное количество шардов на ноду от одного индекса
}
},
"refresh_interval" : "5s", # интервал обновления индекса
"number_of_shards" : "8", # количество шардов
"auto_expand_replicas" : "0-1", # количество реплик на ноду от одного индекса
"number_of_replicas" : "1" # количество реплик
}
},
"mappings" : {
"_meta" : { },
"_source" : { },
"properties" : { }
},
"aliases" : { }
}
}
次に、マッピングをインデックスに適用します。 k8s-ingress-*
より重みの高いテンプレートを使用します。
GET _template/k8s-ingress
{
"k8s-ingress" : {
"order" : 100,
"index_patterns" : [
"k8s-ingress-*"
],
"settings" : {
"index" : {
"lifecycle" : {
"name" : "k8s-ingress",
"rollover_alias" : "k8s-ingress"
},
"codec" : "best_compression",
"routing" : {
"allocation" : {
"require" : {
"box_type" : "hot"
}
}
},
"number_of_shards" : "8",
"number_of_replicas" : "1"
}
},
"mappings" : {
"numeric_detection" : false,
"_meta" : { },
"_source" : { },
"dynamic_templates" : [
{
"all_fields" : {
"mapping" : {
"index" : false,
"type" : "text"
},
"match" : "*"
}
}
],
"date_detection" : false,
"properties" : {
"kubernetes" : {
"type" : "object",
"properties" : {
"container_name" : {
"type" : "keyword"
},
"container_hash" : {
"index" : false,
"type" : "keyword"
},
"host" : {
"type" : "keyword"
},
"annotations" : {
"type" : "object",
"properties" : {
"value" : {
"index" : false,
"type" : "text"
},
"key" : {
"index" : false,
"type" : "keyword"
}
}
},
"docker_id" : {
"index" : false,
"type" : "keyword"
},
"pod_id" : {
"type" : "keyword"
},
"labels" : {
"type" : "object",
"properties" : {
"value" : {
"type" : "keyword"
},
"key" : {
"type" : "keyword"
}
}
},
"namespace_name" : {
"type" : "keyword"
},
"pod_name" : {
"type" : "keyword"
}
}
},
"@timestamp" : {
"type" : "date"
},
"nginx" : {
"type" : "object",
"properties" : {
"access" : {
"type" : "object",
"properties" : {
"agent" : {
"type" : "text"
},
"response_code" : {
"type" : "integer"
},
"upstream" : {
"type" : "object",
"properties" : {
"port" : {
"type" : "keyword"
},
"name" : {
"type" : "keyword"
},
"response_lenght" : {
"type" : "integer"
},
"response_time" : {
"index" : false,
"type" : "text"
},
"addr" : {
"type" : "keyword"
},
"status" : {
"index" : false,
"type" : "text"
}
}
},
"method" : {
"type" : "keyword"
},
"http_version" : {
"type" : "keyword"
},
"bytes_sent" : {
"type" : "integer"
},
"request_lenght" : {
"type" : "integer"
},
"url" : {
"type" : "text",
"fields" : {
"keyword" : {
"type" : "keyword"
}
}
},
"remote_user" : {
"type" : "text"
},
"referrer" : {
"type" : "text"
},
"remote_ip" : {
"type" : "ip"
},
"request_time" : {
"format" : "yyyy/MM/dd HH:mm:ss||yyyy/MM/dd||epoch_millis||dd/MMM/YYYY:H:m:s Z",
"type" : "date"
},
"host" : {
"type" : "keyword"
},
"time" : {
"format" : "yyyy/MM/dd HH:mm:ss||yyyy/MM/dd||epoch_millis||dd/MMM/YYYY:H:m:s Z",
"type" : "date"
}
}
},
"error" : {
"type" : "object",
"properties" : {
"server" : {
"type" : "keyword"
},
"upstream" : {
"type" : "object",
"properties" : {
"port" : {
"type" : "keyword"
},
"proto" : {
"type" : "keyword"
},
"host" : {
"type" : "keyword"
},
"url" : {
"type" : "text",
"fields" : {
"keyword" : {
"type" : "keyword"
}
}
}
}
},
"method" : {
"type" : "keyword"
},
"level" : {
"type" : "keyword"
},
"http_version" : {
"type" : "keyword"
},
"pid" : {
"index" : false,
"type" : "integer"
},
"message" : {
"type" : "text"
},
"tid" : {
"index" : false,
"type" : "keyword"
},
"url" : {
"type" : "text",
"fields" : {
"keyword" : {
"type" : "keyword"
}
}
},
"referrer" : {
"type" : "text"
},
"remote_ip" : {
"type" : "ip"
},
"connection_id" : {
"index" : false,
"type" : "keyword"
},
"host" : {
"type" : "keyword"
},
"time" : {
"format" : "yyyy/MM/dd HH:mm:ss||yyyy/MM/dd||epoch_millis||dd/MMM/YYYY:H:m:s Z",
"type" : "date"
}
}
}
}
},
"log" : {
"type" : "text"
},
"@version" : {
"type" : "text",
"fields" : {
"keyword" : {
"ignore_above" : 256,
"type" : "keyword"
}
}
},
"eventtime" : {
"type" : "float"
}
}
},
"aliases" : { }
}
}
すべてのテンプレートを適用した後、ILM ポリシーを適用し、インデックスの存続期間の監視を開始します。
GET _ilm/policy/k8s-ingress
{
"k8s-ingress" : {
"version" : 14,
"modified_date" : "2020-06-11T10:27:01.448Z",
"policy" : {
"phases" : {
"warm" : { # теплая фаза
"min_age" : "5d", # срок жизни индекса после ротации до наступления теплой фазы
"actions" : {
"allocate" : {
"include" : { },
"exclude" : { },
"require" : {
"box_type" : "warm" # куда перемещаем индекс
}
},
"shrink" : {
"number_of_shards" : 4 # обрезание индексов, т.к. у нас 4 ноды
}
}
},
"cold" : { # холодная фаза
"min_age" : "25d", # срок жизни индекса после ротации до наступления холодной фазы
"actions" : {
"allocate" : {
"include" : { },
"exclude" : { },
"require" : {
"box_type" : "cold" # куда перемещаем индекс
}
},
"freeze" : { } # замораживаем для оптимизации
}
},
"hot" : { # горячая фаза
"min_age" : "0ms",
"actions" : {
"rollover" : {
"max_size" : "50gb", # максимальный размер индекса до ротации (будет х2, т.к. есть 1 реплика)
"max_age" : "1d" # максимальный срок жизни индекса до ротации
},
"set_priority" : {
"priority" : 100
}
}
},
"delete" : { # фаза удаления
"min_age" : "120d", # максимальный срок жизни после ротации перед удалением
"actions" : {
"delete" : { }
}
}
}
}
}
}
問題
セットアップとデバッグの段階で問題が発生しました。
ホットフェーズ
インデックスを正しく回転するには、最後に存在することが重要です index_name-date-000026
数値の書式設定 000001
。 コードには、正規表現を使用してインデックスの末尾に数字が存在するかどうかをチェックする行があります。 それ以外の場合、エラーが発生し、インデックスにポリシーは適用されず、インデックスは常にホットフェーズになります。
暖かい段階
縮小する (カットオフ) — ウォーム フェーズとコールド フェーズに 4 つのノードがあるため、シャードの数を減らします。ドキュメントには次の行が含まれています。
- インデックスは読み取り専用である必要があります。
- インデックス内のすべてのシャードのコピーは、同じノード上に存在する必要があります。
- クラスターの健全性ステータスは緑色である必要があります。
インデックスをプルーニングするために、Elasticsearch はすべてのプライマリ シャードを XNUMX つのノードに移動し、必要なパラメーターを使用して切り捨てられたインデックスを複製し、古いインデックスを削除します。 パラメータ total_shards_per_node
XNUMX つのノードに収まるメイン シャードの数以上である必要があります。 そうしないと、通知が表示され、シャードが正しいノードに移動されません。
GET /shrink-k8s-ingress-2020.06.06-000025/_settings
{
"shrink-k8s-ingress-2020.06.06-000025" : {
"settings" : {
"index" : {
"refresh_interval" : "5s",
"auto_expand_replicas" : "0-1",
"blocks" : {
"write" : "true"
},
"provided_name" : "shrink-k8s-ingress-2020.06.06-000025",
"creation_date" : "1592225525569",
"priority" : "100",
"number_of_replicas" : "1",
"uuid" : "psF4MiFGQRmi8EstYUQS4w",
"version" : {
"created" : "7060299",
"upgraded" : "7060299"
},
"lifecycle" : {
"name" : "k8s-ingress",
"rollover_alias" : "k8s-ingress",
"indexing_complete" : "true"
},
"codec" : "best_compression",
"routing" : {
"allocation" : {
"initial_recovery" : {
"_id" : "_Le0Ww96RZ-o76bEPAWWag"
},
"require" : {
"_id" : null,
"box_type" : "cold"
},
"total_shards_per_node" : "8"
}
},
"number_of_shards" : "4",
"routing_partition_size" : "1",
"resize" : {
"source" : {
"name" : "k8s-ingress-2020.06.06-000025",
"uuid" : "gNhYixO6Skqi54lBjg5bpQ"
}
}
}
}
}
}
低温相
フリーズ (フリーズ) - 履歴データに対するクエリを最適化するためにインデックスをフリーズします。
凍結されたインデックスに対して実行される検索では、小さい専用の search_throttled スレッドプールを使用して、各ノードの凍結されたシャードにヒットする同時検索の数を制御します。 これにより、凍結されたシャードに対応する一時データ構造に必要な追加メモリの量が制限され、その結果、過剰なメモリ消費からノードが保護されます。
凍結されたインデックスは読み取り専用です。インデックスを作成することはできません。
凍結されたインデックスの検索は実行に時間がかかることが予想されます。 凍結インデックスは、高い検索負荷を想定したものではありません。 インデックスが凍結されていない場合は同じ検索が数ミリ秒で完了したとしても、凍結されたインデックスの検索が完了するまでに数秒または数分かかる可能性があります。
結果
ILM を操作するためのノードを準備する方法、ホット ノード間でシャードを分散するためのテンプレートを設定する方法、ライフ ステージのすべてのフェーズでインデックス用に ILM を設定する方法を学びました。
便利なリンク集
https://www.elastic.co/guide/en/elasticsearch/reference/master/index-lifecycle-management-api.html https://www.elastic.co/guide/en/elasticsearch/reference/master/recovery-prioritization.html https://www.elastic.co/guide/en/elasticsearch/reference/master/indices-shrink-index.html#indices-shrink-index https://www.elastic.co/guide/en/elasticsearch/reference/master/frozen-indices.html https://www.elastic.co/guide/en/elasticsearch/reference/master/modules-cluster.html#shard-allocation-awareness
出所: habr.com