Overvåking av postgres inne i Openshift

God dag, innbyggere i Habr!

I dag vil jeg fortelle deg hvordan vi virkelig ønsket å overvåke postgres og et par andre enheter i OpenShift-klyngen og hvordan vi gjorde det.

Ved inngangen hadde de:

  • Openshift
  • Helm
  • Prometheus


For å jobbe med en java-applikasjon var alt ganske enkelt og gjennomsiktig, eller for å være mer presis:

1) Legger til build.gradle

 implementation "io.micrometer:micrometer-registry-prometheus"

2) Kjør prometheus med konfigurasjon

 - job_name: 'job-name'
    metrics_path: '/actuator/prometheus'
    scrape_interval: 5s
    kubernetes_sd_configs:
    - role: pod
      namespaces:
        names: 
          - 'name'

3) Legge til en skjerm til Grafana

Alt var ganske enkelt og prosaisk inntil øyeblikket kom for å overvåke basene som ligger i nærheten i navneområdet vårt (ja, dette er dårlig, ingen gjør dette, men forskjellige ting skjer).

Hvordan virker det?

I tillegg til poden med selve postgres og prometheus, trenger vi enda en enhet - eksportør.

En eksportør i et abstrakt konsept er en agent som samler inn beregninger fra en applikasjon eller til og med en server. For postgres-eksportører er det skrevet i Go, det fungerer etter prinsippet om å kjøre SQL-skript inne i databasen og deretter tar prometheus de oppnådde resultatene. Dette lar deg også utvide de innsamlede beregningene ved å legge til dine egne.

La oss distribuere det slik (eksempel deployment.yaml, ikke-bindende):


---
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
  name: postgres-exporter
  labels:
    app: {{ .Values.name }}
    monitoring: prometheus
spec:
  serviceName: {{ .Values.name }}
  replicas: 1
  revisionHistoryLimit: 5
  template:
    metadata:
      labels:
        app: postgres-exporter
        monitoring: prometheus
    spec:
      containers:
      - env:
        - name: DATA_SOURCE_URI
          value: postgresdb:5432/pstgr?sslmode=disable
        - name: DATA_SOURCE_USER
          value: postgres
        - name: DATA_SOURCE_PASS
          value: postgres
        resources:
          limits:
            cpu: 100m
            memory: 50Mi
          requests:
            cpu: 100m
            memory: 50Mi
        livenessProbe:
          tcpSocket:
            port: metrics
          initialDelaySeconds: 30
          periodSeconds: 30
        readinessProbe:
          tcpSocket:
            port: metrics
          initialDelaySeconds: 10
          periodSeconds: 30
        image: exporter
        name: postgres-exporter
        ports:
        - containerPort: 9187
          name: metrics

Det krevde også en tjeneste og bildestrøm

Etter utplasseringen ønsker vi virkelig at alle skal se hverandre.

Legg til følgende stykke til Prometheus-konfigurasjonen:

  - job_name: 'postgres_exporter'
    metrics_path: '/metrics'
    scrape_interval: 5s
    dns_sd_configs:
    - names:
      - 'postgres-exporter'
      type: 'A'
      port: 9187

Og så fungerte alt, alt som gjenstår er å legge alle disse tingene til grafanaen og nyte resultatet.

I tillegg til muligheten til å legge til dine egne søk, kan du endre innstillingene i prometheus, og samle inn mer målrettede beregninger.

Dette ble gjort på lignende måte for:

  • Kafka
  • Elasticsearch
  • Mongo

PS Alle data om navn, porter og resten er hentet fra luften og inneholder ingen informasjon.

Nyttige lenker:
Liste over ulike eksportører

Kilde: www.habr.com

Legg til en kommentar