Por ser escrito na linguagem Rust, caracteriza-se por alto desempenho e baixo consumo de RAM em comparação com seus análogos. Além disso, muita atenção é dada às funções relacionadas à correção, em particular, à capacidade de salvar eventos não enviados em um buffer no disco e girar arquivos.
Arquitetonicamente, Vector é um roteador de eventos que recebe mensagens de um ou mais de fontes, opcionalmente aplicando-se a essas mensagens transformaçõese enviá-los para um ou mais drenos.
Vector é um substituto para filebeat e logstash, pode atuar nas duas funções (receber e enviar logs), mais detalhes sobre eles On-line.
Se no Logstash a cadeia é construída como entrada → filtro → saída então no Vector é fontes → transformações → pias
Exemplos podem ser encontrados na documentação.
Esta instrução é uma instrução revisada de Vyacheslav Rakhinsky. As instruções originais contêm processamento geoip. Ao testar o geoip de uma rede interna, o vetor apresentou um erro.
Aug 05 06:25:31.889 DEBUG transform{name=nginx_parse_rename_fields type=rename_fields}: vector::transforms::rename_fields: Field did not exist field=«geoip.country_name» rate_limit_secs=30
Se alguém precisar processar geoip, consulte as instruções originais de Vyacheslav Rakhinsky.
Iremos configurar a combinação de Nginx (Logs de acesso) → Vector (Cliente | Filebeat) → Vector (Servidor | Logstash) → separadamente no Clickhouse e separadamente no Elasticsearch. Instalaremos 4 servidores. Embora você possa contorná-lo com 3 servidores.
O esquema é algo assim.
Desative o Selinux em todos os seus servidores
sed -i 's/^SELINUX=.*/SELINUX=disabled/g' /etc/selinux/config
reboot
Instalamos um emulador de servidor HTTP + utilitários em todos os servidores
ClickHouse usa o conjunto de instruções SSE 4.2, portanto, a menos que especificado de outra forma, o suporte para ele no processador usado torna-se um requisito adicional do sistema. Aqui está o comando para verificar se o processador atual suporta SSE 4.2:
Configurando o Elasticsearch para modo de nó único 1 fragmento, 0 réplica. Muito provavelmente você terá um cluster com um grande número de servidores e não precisará fazer isso.
Depois de criar as tabelas, você pode executar o Vector
systemctl enable vector
systemctl start vector
Os logs vetoriais podem ser visualizados assim:
journalctl -f -u vector
Deve haver entradas como esta nos logs
INFO vector::topology::builder: Healthcheck: Passed.
INFO vector::topology::builder: Healthcheck: Passed.
No cliente (servidor Web) - 1º servidor
No servidor com nginx, é necessário desabilitar o ipv6, pois a tabela de logs no clickhouse utiliza o campo upstream_addr IPv4, já que não uso ipv6 dentro da rede. Se o ipv6 não estiver desligado, haverá erros:
DB::Exception: Invalid IPv4 value.: (while read the value of key upstream_addr)
Primeiro, precisamos configurar o formato de log no Nginx no arquivo /etc/nginx/nginx.conf
user nginx;
# you must set worker processes based on your CPU cores, nginx does not benefit from setting more than that
worker_processes auto; #some last versions calculate it automatically
# number of file descriptors used for nginx
# the limit for the maximum FDs on the server is usually set by the OS.
# if you don't set FD's then OS settings will be used which is by default 2000
worker_rlimit_nofile 100000;
error_log /var/log/nginx/error.log warn;
pid /var/run/nginx.pid;
# provides the configuration file context in which the directives that affect connection processing are specified.
events {
# determines how much clients will be served per worker
# max clients = worker_connections * worker_processes
# max clients is also limited by the number of socket connections available on the system (~64k)
worker_connections 4000;
# optimized to serve many clients with each thread, essential for linux -- for testing environment
use epoll;
# accept as many connections as possible, may flood worker connections if set too low -- for testing environment
multi_accept on;
}
http {
include /etc/nginx/mime.types;
default_type application/octet-stream;
log_format main '$remote_addr - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" "$http_x_forwarded_for"';
log_format vector escape=json
'{'
'"node_name":"nginx-vector",'
'"timestamp":"$time_iso8601",'
'"server_name":"$server_name",'
'"request_full": "$request",'
'"request_user_agent":"$http_user_agent",'
'"request_http_host":"$http_host",'
'"request_uri":"$request_uri",'
'"request_scheme": "$scheme",'
'"request_method":"$request_method",'
'"request_length":"$request_length",'
'"request_time": "$request_time",'
'"request_referrer":"$http_referer",'
'"response_status": "$status",'
'"response_body_bytes_sent":"$body_bytes_sent",'
'"response_content_type":"$sent_http_content_type",'
'"remote_addr": "$remote_addr",'
'"remote_port": "$remote_port",'
'"remote_user": "$remote_user",'
'"upstream_addr": "$upstream_addr",'
'"upstream_bytes_received": "$upstream_bytes_received",'
'"upstream_bytes_sent": "$upstream_bytes_sent",'
'"upstream_cache_status":"$upstream_cache_status",'
'"upstream_connect_time":"$upstream_connect_time",'
'"upstream_header_time":"$upstream_header_time",'
'"upstream_response_length":"$upstream_response_length",'
'"upstream_response_time":"$upstream_response_time",'
'"upstream_status": "$upstream_status",'
'"upstream_content_type":"$upstream_http_content_type"'
'}';
access_log /var/log/nginx/access.log main;
access_log /var/log/nginx/access.json.log vector; # Новый лог в формате json
sendfile on;
#tcp_nopush on;
keepalive_timeout 65;
#gzip on;
include /etc/nginx/conf.d/*.conf;
}
Para não quebrar sua configuração atual, o Nginx permite que você tenha diversas diretivas access_log
access_log /var/log/nginx/access.log main; # Стандартный лог
access_log /var/log/nginx/access.json.log vector; # Новый лог в формате json
Não se esqueça de adicionar uma regra ao logrotate para novos logs (se o arquivo de log não terminar com .log)
Remova default.conf de /etc/nginx/conf.d/
rm -f /etc/nginx/conf.d/default.conf
Adicione o host virtual /etc/nginx/conf.d/vhost1.conf
E configure a substituição do Filebeat na configuração /etc/vector/vector.toml. O endereço IP 172.26.10.108 é o endereço IP do servidor de log (Vector-Server)
data_dir = "/var/lib/vector"
[sources.nginx_file]
type = "file"
include = [ "/var/log/nginx/access.json.log" ]
start_at_beginning = false
fingerprinting.strategy = "device_and_inode"
[sinks.nginx_output_vector]
type = "vector"
inputs = [ "nginx_file" ]
address = "172.26.10.108:9876"
Não se esqueça de adicionar o usuário do vetor ao grupo necessário para que ele possa ler os arquivos de log. Por exemplo, nginx em centos cria logs com direitos de grupo adm.
usermod -a -G adm vector
Vamos iniciar o serviço vetorial
systemctl enable vector
systemctl start vector
Os logs vetoriais podem ser visualizados assim:
journalctl -f -u vector
Deveria haver uma entrada como esta nos logs
INFO vector::topology::builder: Healthcheck: Passed.
Teste de estresse
Realizamos testes usando o benchmark Apache.
O pacote httpd-tools foi instalado em todos os servidores
Começamos os testes usando o benchmark Apache de 4 servidores diferentes na tela. Primeiro, iniciamos o multiplexador do terminal de tela e, em seguida, iniciamos os testes usando o benchmark Apache. Como trabalhar com tela você pode encontrar em статье.
Do 1º servidor
while true; do ab -H "User-Agent: 1server" -c 100 -n 10 -t 10 http://vhost1/; sleep 1; done
Do 2º servidor
while true; do ab -H "User-Agent: 2server" -c 100 -n 10 -t 10 http://vhost2/; sleep 1; done
Do 3º servidor
while true; do ab -H "User-Agent: 3server" -c 100 -n 10 -t 10 http://vhost3/; sleep 1; done
Do 4º servidor
while true; do ab -H "User-Agent: 4server" -c 100 -n 10 -t 10 http://vhost4/; sleep 1; done
select concat(database, '.', table) as table,
formatReadableSize(sum(bytes)) as size,
sum(rows) as rows,
max(modification_time) as latest_modification,
sum(bytes) as bytes_size,
any(engine) as engine,
formatReadableSize(sum(primary_key_bytes_in_memory)) as primary_keys_size
from system.parts
where active
group by database, table
order by bytes_size desc;
Vamos descobrir quantos logs ocuparam no Clickhouse.
O tamanho da tabela de logs é 857.19 MB.
O tamanho dos mesmos dados no índice no Elasticsearch é de 4,5 GB.
Se você não especificar os dados do vetor nos parâmetros, o Clickhouse leva 4500/857.19 = 5.24 vezes menos que no Elasticsearch.
No vetor, o campo de compressão é usado por padrão.