Dobrý den, obyvatelé Habru!
Dnes vám chci říct, jak jsme skutečně chtěli monitorovat postgres a několik dalších entit uvnitř clusteru OpenShift a jak jsme to udělali.
U vchodu měli:
- Openshift
- Kormidlo
- Prometheus
Pro práci s java aplikací bylo vše docela jednoduché a transparentní, nebo přesněji:
1) Přidání do build.gradle
implementation "io.micrometer:micrometer-registry-prometheus"
2) Spusťte prometheus s konfigurací
- job_name: 'job-name'
metrics_path: '/actuator/prometheus'
scrape_interval: 5s
kubernetes_sd_configs:
- role: pod
namespaces:
names:
- 'name'
3) Přidání displeje do Grafany
Vše bylo celkem jednoduché a prozaické, dokud nenastal okamžik sledování základen, které se nacházejí poblíž v našem jmenném prostoru (ano, to je špatné, nikdo to nedělá, ale stávají se různé věci).
Jak to funguje?
Kromě podu s postgresem a samotným prometheem potřebujeme ještě jednu entitu – exportéra.
Exportér v abstraktním pojetí je agent, který shromažďuje metriky z aplikace nebo dokonce ze serveru. Pro postgres exportéra je napsán v Go, funguje na principu spouštění SQL skriptů uvnitř databáze a prometheus pak přebírá získané výsledky. To vám také umožňuje rozšířit shromážděné metriky přidáním vlastních.
Nasadíme to takto (příklad deployment.yaml, nezávazně):
---
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
name: postgres-exporter
labels:
app: {{ .Values.name }}
monitoring: prometheus
spec:
serviceName: {{ .Values.name }}
replicas: 1
revisionHistoryLimit: 5
template:
metadata:
labels:
app: postgres-exporter
monitoring: prometheus
spec:
containers:
- env:
- name: DATA_SOURCE_URI
value: postgresdb:5432/pstgr?sslmode=disable
- name: DATA_SOURCE_USER
value: postgres
- name: DATA_SOURCE_PASS
value: postgres
resources:
limits:
cpu: 100m
memory: 50Mi
requests:
cpu: 100m
memory: 50Mi
livenessProbe:
tcpSocket:
port: metrics
initialDelaySeconds: 30
periodSeconds: 30
readinessProbe:
tcpSocket:
port: metrics
initialDelaySeconds: 10
periodSeconds: 30
image: exporter
name: postgres-exporter
ports:
- containerPort: 9187
name: metrics
Vyžadovalo to také službu a tok obrázků
Po nasazení opravdu chceme, aby se všichni viděli.
Přidejte následující kus do konfigurace Prometheus:
- job_name: 'postgres_exporter'
metrics_path: '/metrics'
scrape_interval: 5s
dns_sd_configs:
- names:
- 'postgres-exporter'
type: 'A'
port: 9187
A pak už vše fungovalo, zbývá jen přidat všechny tyhle věci do grafana a užít si výsledek.
Kromě možnosti přidávat vlastní dotazy můžete v prometheus měnit nastavení a shromažďovat cílenější metriky.
To bylo provedeno podobným způsobem pro:
- Kafka
- Elastickýsearch
- Mongo
PS Všechny údaje o jménech, portech a ostatní jsou převzaty ze vzduchu a neobsahují žádné informace.
Užitečné odkazy:
Zdroj: www.habr.com