Доброї доби жителі Хабра!
Сьогодні хочу розповісти вам, як нам дуже хотілося моніторити postgres та ще пару сутностей усередині кластера OpenShift і як ми це зробили.
На вході мали:
- Openshift
- Кермо
- Прометей
Для роботи з java додатком все було досить просто та прозоро, а якщо бути точніше, то:
1) Додавання до build.gradle
implementation "io.micrometer:micrometer-registry-prometheus"
2) Запуск prometheus з конфігурацією
- job_name: 'job-name'
metrics_path: '/actuator/prometheus'
scrape_interval: 5s
kubernetes_sd_configs:
- role: pod
namespaces:
names:
- 'name'
3) Додавання відображення в Grafana
Все досить просто і прозаїчно було доти, доки не настав момент моніторити бази, які знаходяться у нас поруч у неймспейсі (так, це погано, ніхто так не робить, але буває різне).
Як же це працює?
Крім пода з postgres і власне prometheus нам необхідна ще одна сутність – exporter.
Експортер у абстрактному понятті це агент, який збирає метрики у додатку чи навіть сервера. Для postgres exporter написаний на Go, працює за принципом запуску всередині SQL скриптів на базі і далі отримані результати забирає prometheus. Це так само дозволяє розширювати метрики, що збираються, додаючи свої.
Деплоїмо його ось таким чином ( приклад deployment.yaml, що ні до чого не зобов'язує):
---
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
name: postgres-exporter
labels:
app: {{ .Values.name }}
monitoring: prometheus
spec:
serviceName: {{ .Values.name }}
replicas: 1
revisionHistoryLimit: 5
template:
metadata:
labels:
app: postgres-exporter
monitoring: prometheus
spec:
containers:
- env:
- name: DATA_SOURCE_URI
value: postgresdb:5432/pstgr?sslmode=disable
- name: DATA_SOURCE_USER
value: postgres
- name: DATA_SOURCE_PASS
value: postgres
resources:
limits:
cpu: 100m
memory: 50Mi
requests:
cpu: 100m
memory: 50Mi
livenessProbe:
tcpSocket:
port: metrics
initialDelaySeconds: 30
periodSeconds: 30
readinessProbe:
tcpSocket:
port: metrics
initialDelaySeconds: 10
periodSeconds: 30
image: exporter
name: postgres-exporter
ports:
- containerPort: 9187
name: metrics
Так само для нього знадобився сервіс та імейджстрім
Після деплою нам дуже хочеться, щоби всі один одного бачили.
Додаємо в конфіг прометея такий шматочок:
- job_name: 'postgres_exporter'
metrics_path: '/metrics'
scrape_interval: 5s
dns_sd_configs:
- names:
- 'postgres-exporter'
type: 'A'
port: 9187
І ось тут щось все запрацювало, залишилося додати все це добро в графану і насолоджуватися результатом.
Крім можливості додавати свої запити, в prometheus можна змінювати налаштування, збираючи більш таргетовано необхідні метрики.
Аналогічним способом було зроблено для:
- Кафка
- Elasticsearch
- Монго
PS Всі дані за іменами, портами та рештою взяті зі стелі і не несуть жодної інформації.
Корисні посилання:
Джерело: habr.com