Dobrý deň, obyvatelia Habru!
Dnes vám chcem povedať, ako sme skutočne chceli monitorovať postgres a niekoľko ďalších entít vo vnútri klastra OpenShift a ako sme to urobili.
Pri vchode mali:
- Openshift
- kormidlo
- Prometheus
Pre prácu s java aplikáciou bolo všetko celkom jednoduché a transparentné, alebo presnejšie:
1) Pridanie do build.gradle
implementation "io.micrometer:micrometer-registry-prometheus"
2) Spustite program prometheus s konfiguráciou
- job_name: 'job-name'
metrics_path: '/actuator/prometheus'
scrape_interval: 5s
kubernetes_sd_configs:
- role: pod
namespaces:
names:
- 'name'
3) Pridanie displeja do Grafany
Všetko bolo celkom jednoduché a prozaické, kým neprišiel moment monitorovania základní, ktoré sa v našom mennom priestore nachádzajú neďaleko (áno, je to zlé, nikto to nerobí, ale stávajú sa rôzne veci).
Ako to funguje?
Okrem podu s postgresom a samotným prometheom potrebujeme ešte jeden subjekt – exportéra.
Exportér v abstraktnom koncepte je agent, ktorý zhromažďuje metriky z aplikácie alebo dokonca zo servera. Pre postgres exportéra je napísaný v Go, funguje na princípe spúšťania SQL skriptov vo vnútri databázy a prometheus potom preberá získané výsledky. To vám tiež umožňuje rozšíriť zhromaždené metriky pridaním vlastných.
Nasadíme to takto (príklad deployment.yaml, nezáväzne):
---
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
name: postgres-exporter
labels:
app: {{ .Values.name }}
monitoring: prometheus
spec:
serviceName: {{ .Values.name }}
replicas: 1
revisionHistoryLimit: 5
template:
metadata:
labels:
app: postgres-exporter
monitoring: prometheus
spec:
containers:
- env:
- name: DATA_SOURCE_URI
value: postgresdb:5432/pstgr?sslmode=disable
- name: DATA_SOURCE_USER
value: postgres
- name: DATA_SOURCE_PASS
value: postgres
resources:
limits:
cpu: 100m
memory: 50Mi
requests:
cpu: 100m
memory: 50Mi
livenessProbe:
tcpSocket:
port: metrics
initialDelaySeconds: 30
periodSeconds: 30
readinessProbe:
tcpSocket:
port: metrics
initialDelaySeconds: 10
periodSeconds: 30
image: exporter
name: postgres-exporter
ports:
- containerPort: 9187
name: metrics
Vyžadovalo si to aj službu a tok obrázkov
Po nasadení naozaj chceme, aby sa všetci videli.
Pridajte nasledujúci kus do konfigurácie Prometheus:
- job_name: 'postgres_exporter'
metrics_path: '/metrics'
scrape_interval: 5s
dns_sd_configs:
- names:
- 'postgres-exporter'
type: 'A'
port: 9187
A potom už všetko fungovalo, ostáva už len pridať všetky tieto veci do grafana a užiť si výsledok.
Okrem možnosti pridávať svoje vlastné dopyty môžete zmeniť nastavenia v prometheus a zbierať cielenejšie metriky.
Urobilo sa to podobným spôsobom pre:
- Kafka
- ElasticSearch
- mongo
PS Všetky údaje o názvoch, portoch a ostatné sú prevzaté zo vzduchu a neobsahujú žiadne informácie.
Užitočné odkazy:
Zdroj: hab.com