Следење на постгрес внатре во Openshift

Добар ден, жители на Хабр!

Денес сакам да ви кажам како навистина сакавме да ги следиме postgres и неколку други ентитети во кластерот OpenShift и како го направивме тоа.

На влезот имаа:

  • Openshift
  • кормилото
  • Прометеј


За работа со java апликација, сè беше прилично едноставно и транспарентно, или да бидам попрецизен:

1) Додавање во градба.gradle

 implementation "io.micrometer:micrometer-registry-prometheus"

2) Стартувај прометеј со конфигурација

 - job_name: 'job-name'
    metrics_path: '/actuator/prometheus'
    scrape_interval: 5s
    kubernetes_sd_configs:
    - role: pod
      namespaces:
        names: 
          - 'name'

3) Додавање приказ на Графана

Сè беше прилично едноставно и прозаично додека не дојде моментот да ги следиме базите што се наоѓаат во близина во нашиот именски простор (да, ова е лошо, никој не го прави ова, но се случуваат различни работи).

Како работи?

Покрај мешунката со постгрес и самиот прометеј, потребен ни е уште еден субјект - извозник.

Извозник во апстрактен концепт е агент кој собира метрика од апликација или дури и сервер. За извозникот на постгрес, тоа е напишано во Go, работи на принцип на извршување на SQL скрипти во базата на податоци и потоа Prometheus ги зема добиените резултати. Ова исто така ви овозможува да ги проширите собраните метрики со додавање на своја.

Ајде да го распоредиме вака (пример deployment.yaml, необврзувачки):


---
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
  name: postgres-exporter
  labels:
    app: {{ .Values.name }}
    monitoring: prometheus
spec:
  serviceName: {{ .Values.name }}
  replicas: 1
  revisionHistoryLimit: 5
  template:
    metadata:
      labels:
        app: postgres-exporter
        monitoring: prometheus
    spec:
      containers:
      - env:
        - name: DATA_SOURCE_URI
          value: postgresdb:5432/pstgr?sslmode=disable
        - name: DATA_SOURCE_USER
          value: postgres
        - name: DATA_SOURCE_PASS
          value: postgres
        resources:
          limits:
            cpu: 100m
            memory: 50Mi
          requests:
            cpu: 100m
            memory: 50Mi
        livenessProbe:
          tcpSocket:
            port: metrics
          initialDelaySeconds: 30
          periodSeconds: 30
        readinessProbe:
          tcpSocket:
            port: metrics
          initialDelaySeconds: 10
          periodSeconds: 30
        image: exporter
        name: postgres-exporter
        ports:
        - containerPort: 9187
          name: metrics

Исто така, бараше услуга и пренос на слики

По распоредувањето, навистина сакаме сите да се видат.

Додајте го следново парче во конфигурацијата Prometheus:

  - job_name: 'postgres_exporter'
    metrics_path: '/metrics'
    scrape_interval: 5s
    dns_sd_configs:
    - names:
      - 'postgres-exporter'
      type: 'A'
      port: 9187

И тогаш сè успеа, останува само да ги додадеме сите овие работи во графана и да уживаме во резултатот.

Покрај можноста за додавање сопствени прашања, можете да ги промените поставките во прометеј, собирајќи повеќе насочени метрики.

Ова беше направено на сличен начин за:

  • Кафка
  • Еластична пребарување
  • Монго

PS Сите податоци за имиња, порти и останатото се земени од воздух и не содржат никакви информации.

Корисни врски:
Список на различни извозници

Извор: www.habr.com

Додадете коментар