Моніторинг postgres всередині Openshift

Доброї доби жителі Хабра!

Сьогодні хочу розповісти вам, як нам дуже хотілося моніторити postgres та ще пару сутностей усередині кластера OpenShift і як ми це зробили.

На вході мали:

  • Openshift
  • Кермо
  • Прометей


Для роботи з java додатком все було досить просто та прозоро, а якщо бути точніше, то:

1) Додавання до build.gradle

 implementation "io.micrometer:micrometer-registry-prometheus"

2) Запуск prometheus з конфігурацією

 - job_name: 'job-name'
    metrics_path: '/actuator/prometheus'
    scrape_interval: 5s
    kubernetes_sd_configs:
    - role: pod
      namespaces:
        names: 
          - 'name'

3) Додавання відображення в Grafana

Все досить просто і прозаїчно було доти, доки не настав момент моніторити бази, які знаходяться у нас поруч у неймспейсі (так, це погано, ніхто так не робить, але буває різне).

Як же це працює?

Крім пода з postgres і власне prometheus нам необхідна ще одна сутність – exporter.

Експортер у абстрактному понятті це агент, який збирає метрики у додатку чи навіть сервера. Для postgres exporter написаний на Go, працює за принципом запуску всередині SQL скриптів на базі і далі отримані результати забирає prometheus. Це так само дозволяє розширювати метрики, що збираються, додаючи свої.

Деплоїмо його ось таким чином ( приклад deployment.yaml, що ні до чого не зобов'язує):


---
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
  name: postgres-exporter
  labels:
    app: {{ .Values.name }}
    monitoring: prometheus
spec:
  serviceName: {{ .Values.name }}
  replicas: 1
  revisionHistoryLimit: 5
  template:
    metadata:
      labels:
        app: postgres-exporter
        monitoring: prometheus
    spec:
      containers:
      - env:
        - name: DATA_SOURCE_URI
          value: postgresdb:5432/pstgr?sslmode=disable
        - name: DATA_SOURCE_USER
          value: postgres
        - name: DATA_SOURCE_PASS
          value: postgres
        resources:
          limits:
            cpu: 100m
            memory: 50Mi
          requests:
            cpu: 100m
            memory: 50Mi
        livenessProbe:
          tcpSocket:
            port: metrics
          initialDelaySeconds: 30
          periodSeconds: 30
        readinessProbe:
          tcpSocket:
            port: metrics
          initialDelaySeconds: 10
          periodSeconds: 30
        image: exporter
        name: postgres-exporter
        ports:
        - containerPort: 9187
          name: metrics

Так само для нього знадобився сервіс та імейджстрім

Після деплою нам дуже хочеться, щоби всі один одного бачили.

Додаємо в конфіг прометея такий шматочок:

  - job_name: 'postgres_exporter'
    metrics_path: '/metrics'
    scrape_interval: 5s
    dns_sd_configs:
    - names:
      - 'postgres-exporter'
      type: 'A'
      port: 9187

І ось тут щось все запрацювало, залишилося додати все це добро в графану і насолоджуватися результатом.

Крім можливості додавати свої запити, в prometheus можна змінювати налаштування, збираючи більш таргетовано необхідні метрики.

Аналогічним способом було зроблено для:

  • Кафка
  • Elasticsearch
  • Монго

PS Всі дані за іменами, портами та рештою взяті зі стелі і не несуть жодної інформації.

Корисні посилання:
Список різних експортерів

Джерело: habr.com

Додати коментар або відгук