Monitorización do rendemento das consultas PostgreSQL. Parte 1 - Informes

Enxeñeiro - traducido do latín - inspirado.
Un enxeñeiro pode facer calquera cousa. (c) R. Diesel.
Epígrafes.
Monitorización do rendemento das consultas PostgreSQL. Parte 1 - Informes
Ou unha historia sobre por que un administrador de base de datos necesita lembrar o seu pasado de programación.

Prefacio

Todos os nomes foron cambiados. Os partidos son aleatorios. O material é unicamente a opinión persoal do autor.

Exención de garantías: na serie de artigos prevista non haberá descrición detallada e precisa das táboas e guións empregados. Os materiais non se poden usar inmediatamente "TAL CUAL".
En primeiro lugar, debido á gran cantidade de material,
en segundo lugar, pola nitidez coa base de produción dun cliente real.
Polo tanto, nos artigos só se darán ideas e descricións na forma máis xeral.
Quizais no futuro o sistema creza ata o nivel de publicación en GitHub, ou quizais non. O tempo amosarase.

Comezo da historia-Lembras como comezou todo?».
O que pasou como resultado, nos termos máis xerais - "Síntese como un dos métodos para mellorar o rendemento de PostgreSQL»

Por que necesito todo isto?

Ben, en primeiro lugar, para non esquecerse de si mesmo, lembrando os gloriosos días da xubilación.
En segundo lugar, sistematizar o escrito. Xa para min, ás veces empezo a confundirme e esquezo partes separadas.

Ben, e o máis importante: de súpeto, pode ser útil para alguén e axudar a non reinventar a roda e non recoller un anciño. Noutras palabras, mellora o teu karma (non Khabrovsky). Porque o máis valioso deste mundo son as ideas. O principal é atopar unha idea. E traducir a idea en realidade xa é unha cuestión puramente técnica.

Entón imos comezar aos poucos...

Formulación do problema.

Dispoñible:

PostgreSQL (10.5), carga mixta (OLTP+DSS), carga media a lixeira, aloxado na nube de AWS.
Non hai supervisión de base de datos, a supervisión da infraestrutura preséntase como ferramentas estándar de AWS nunha configuración mínima.

Necesario:

Supervisar o rendemento e o estado da base de datos, atopar e ter información inicial para optimizar as consultas de base de datos pesadas.

Breve introdución ou análise de solucións

Para comezar, intentemos analizar as opcións para resolver o problema dende o punto de vista dunha análise comparativa dos beneficios e problemas para o enxeñeiro, e deixemos que os que se supón que están na lista de persoal se ocupen dos beneficios e perdas. de xestión.

Opción 1: "Traballar baixo demanda"

Deixamos todo como está. Se o cliente non está satisfeito con algo na saúde, o rendemento da base de datos ou da aplicación, notificarao aos enxeñeiros de DBA por correo electrónico ou creando unha incidencia na caixa de entradas.
Un enxeñeiro, recibindo unha notificación, entenderá o problema, ofrecerá unha solución ou arquivará o problema, coa esperanza de que todo se resolva por si só e, de todos os xeitos, todo será pronto esquecido.
Pan de xenxibre e rosquillas, contusións e golpesPan de xenxibre e rosquillas:
1. Nada extra que facer
2. Sempre hai a oportunidade de saír e ensuciarse.
3. Moito tempo que podes pasar pola túa conta.
Golpes e contusións:
1. Tarde ou cedo, o cliente pensará na esencia do ser e da xustiza universal neste mundo e volverá facerse a pregunta: por que lles pago o meu diñeiro? A consecuencia é sempre a mesma: a única pregunta é cando o cliente se aburre e se despide. E o alimentador está baleiro. É triste.
2. O desenvolvemento dun enxeñeiro é cero.
3. Dificultades na programación do traballo e da carga

Opción 2 - "Baila con pandeiretas, ponte e ponte calzado"

Parágrafo 1-Por que necesitamos un sistema de vixilancia, recibiremos todas as solicitudes. Lanzamos un montón de todo tipo de consultas ao dicionario de datos e ás vistas dinámicas, activamos todo tipo de contadores, incorporamos todo a táboas, analizamos periodicamente listas e táboas, por así dicilo. Como resultado, temos gráficos, táboas, informes bonitos ou pouco. O principal - iso sería máis, máis.
Parágrafo 2-Xerar actividade-realizar a análise de todo isto.
Parágrafo 3-Estamos a preparar un determinado documento, a este documento chamámoslle simplemente - "como equipamos a base de datos".
Parágrafo 4- O cliente, vendo toda esta magnificencia de gráficos e cifras, está nunha inxenua confianza infantil - agora todo funcionará para nós, pronto. E, facilmente e sen dor, separarse dos seus recursos económicos. A dirección tamén está segura de que os nosos enxeñeiros están a traballar duro. Carga máxima.
Parágrafo 5- Repita o paso 1 regularmente.
Pan de xenxibre e rosquillas, contusións e golpesPan de xenxibre e rosquillas:
1. A vida dos xestores e enxeñeiros é sinxela, previsible e chea de actividade. Todo zumba, todos están ocupados.
2. A vida do cliente tampouco é mala: sempre está seguro de que hai que ter un pouco de paciencia e que todo sairá ben. Non está mellorando, ben, ben - este mundo é inxusto, na próxima vida - terás sorte.
Golpes e contusións:
1. Tarde ou cedo, haberá un provedor máis intelixente dun servizo similar que fará o mesmo, pero un pouco máis barato. E se o resultado é o mesmo, por que pagar máis. O que de novo levará á desaparición do alimentador.
2. É aburrido. Que aburrida calquera actividade pouco significativa.
3. Como na versión anterior - sen desenvolvemento. Pero para un enxeñeiro, o inconveniente é que, a diferenza da primeira opción, aquí cómpre xerar constantemente un BID. E iso leva tempo. Que se pode gastar en beneficio do seu ser querido. Porque non podes coidar de ti, todos preocúpanse por ti.

Opción 3-Non hai que inventar unha bicicleta, hai que mercala e montala.

Os enxeñeiros doutras empresas comen a sabendas pizza con cervexa (oh, os gloriosos tempos de San Petersburgo nos anos 90). Usemos sistemas de vixilancia que estean feitos, depurados e funcionando e, en xeral, que traen beneficios (ben, polo menos para os seus creadores).
Pan de xenxibre e rosquillas, contusións e golpesPan de xenxibre e rosquillas:
1. Non hai que perder o tempo inventando o que xa está inventado. Toma e usa.
2. Os sistemas de vixilancia non están escritos por tolos e, por suposto, son útiles.
3. Os sistemas de vixilancia en funcionamento adoitan proporcionar información filtrada útil.
Golpes e contusións:
1. Neste caso, o enxeñeiro non é un enxeñeiro, senón só un usuario do produto doutro ou un usuario.
2. O cliente debe estar convencido da necesidade de mercar algo que en xeral non quere entender, e non debería, e en xeral o orzamento do ano foi aprobado e non cambiará. A continuación, cómpre asignar un recurso separado, configuralo para un sistema específico. Eses. Primeiro cómpre pagar, pagar e volver pagar. E o cliente é tacaño. Esta é a norma desta vida.

Que facer, Chernyshevsky? A túa pregunta é moi pertinente. (Con)

Neste caso particular e na situación actual, podes facer un pouco diferente: fagamos o noso propio sistema de vixilancia.
Monitorización do rendemento das consultas PostgreSQL. Parte 1 - Informes
Ben, non é un sistema, por suposto, no pleno sentido da palabra, isto é demasiado alto e presuntuoso, pero polo menos dalgún xeito faino máis doado para ti e recompila máis información para resolver os incidentes de rendemento. Para non atoparte nunha situación: "vai alí, non sei onde, atopa iso, non sei que".

Cales son os pros e contras desta opción:

Pros:
1. É interesante. Ben, polo menos máis interesante que a constante "reducir ficheiro de datos, modificar espazo de táboa, etc".
2. Son novas habilidades e novos desenvolvementos. Que no futuro, tarde ou cedo, darán merecidos pan de xenxibre e rosquillas.
Contras:
1. Ter que traballar. Traballar moito.
2. Terás que explicar regularmente o significado e as perspectivas de toda actividade.
3. Haberá que sacrificar algo, porque o único recurso do que dispón o enxeñeiro -o tempo- está limitado polo Universo.
4. O peor e o máis desagradable - como resultado, pode aparecer lixo como "Non un rato, nin un sapo, senón un animaliño descoñecido".

Quen non arrisca algo non bebe champaña.
Entón, comeza a diversión.

Idea xeral - esquemática

Monitorización do rendemento das consultas PostgreSQL. Parte 1 - Informes
(Ilustración extraída do artigo «Síntese como un dos métodos para mellorar o rendemento de PostgreSQL")

Explicación:

  • A base de datos de destino instálase coa extensión estándar de PostgreSQL "pg_stat_statements".
  • Na base de datos de seguimento, creamos un conxunto de táboas de servizo para almacenar o historial de pg_stat_statements na fase inicial e para configurar métricas e monitorización no futuro
  • No host de monitorización, creamos un conxunto de scripts bash, incluídos aqueles para xerar incidentes no sistema de tickets.

Mesas de servizo

Para comezar, un ERD esquemáticamente simplificado, o que pasou ao final:
Monitorización do rendemento das consultas PostgreSQL. Parte 1 - Informes
Breve descrición das táboaspunto final - host, punto de conexión coa instancia
base de datos - Opcións de base de datos
pg_stat_history - unha táboa histórica para almacenar instantáneas temporais da vista pg_stat_statements da base de datos de destino
glosario_métrico - Dicionario de métricas de rendemento
metric_config - Configuración de métricas individuais
métrico - unha métrica específica para a solicitude que se está a supervisar
metric_alert_historial - historial de avisos de rendemento
consulta_log - táboa de servizos para almacenar rexistros analizados do ficheiro de rexistro de PostgreSQL descargado de AWS
baseline - parámetros do período de tempo utilizado como base
checkpoint - configuración de métricas para comprobar o estado da base de datos
checkpoint_alert_history - historial de avisos das métricas de verificación do estado da base de datos
pg_stat_db_queries — táboa de servizos de solicitudes activas
rexistro_actividade - táboa de servizos de rexistro de actividade
trampa_oide - táboa de servizos de configuración de trampas

Fase 1: recolle estatísticas de rendemento e obtén informes

Unha táboa úsase para almacenar información estatística. pg_stat_history
Estrutura da táboa pg_stat_history

                                          Táboa "public.pg_stat_history" Columna | tipo | Modificadores--------------------+--------------------- --+---- -------------------------------- id | enteiro | non é nulo predeterminado nextval('pg_stat_history_id_seq'::regclass) snapshot_timestamp | marca de tempo sen fuso horario | database_id | enteiro | dbid | oid | ID de usuario | oid | queryid | bigint | consulta | texto | chamadas | bigint | tempo_total | dobre precisión | min_time | dobre precisión | tempo_máximo | dobre precisión | tempo_medio | dobre precisión | stddev_time | dobre precisión | filas | bigint | shared_blks_hit | bigint | shared_blks_read | bigint | shared_blks_dirtied | bigint | shared_blks_written | bigint | local_blks_hit | bigint | local_blks_read | bigint | local_blks_dirtied | bigint | local_blks_written | bigint | temp_blks_read | bigint | temp_blks_escrito | bigint | tempo_de_lectura | dobre precisión | tempo_de_escritura | dobre precisión | baseline_id | enteiro | Índices: "pg_stat_history_pkey" CLAVE PRIMARIA, btree (id) "database_idx" btree (database_id) "queryid_idx" btree (queryid) "snapshot_timestamp_idx" btree (snapshot_timestamp) Foreign-key-database constraints: "Restricción de base de datos REFERENCIA_K" base de datos (id ) ON DELETE CASCADE

Como podes ver, a táboa é só unha vista acumulada de datos pg_stat_statements na base de datos de destino.

O uso desta táboa é moi sinxelo.

pg_stat_history representará as estatísticas acumuladas de execución de consulta para cada hora. Ao comezo de cada hora, despois de cubrir a táboa, estatísticas pg_stat_statements restablecer con pg_stat_statements_reset().
Nota: Recóllense estatísticas para solicitudes cunha duración superior a 1 segundo.
Poboando a táboa pg_stat_history

--pg_stat_history.sql
CREATE OR REPLACE FUNCTION pg_stat_history( ) RETURNS boolean AS $$
DECLARE
  endpoint_rec record ;
  database_rec record ;
  pg_stat_snapshot record ;
  current_snapshot_timestamp timestamp without time zone;
BEGIN
  current_snapshot_timestamp = date_trunc('minute',now());  
  
  FOR endpoint_rec IN SELECT * FROM endpoint 
  LOOP
    FOR database_rec IN SELECT * FROM database WHERE endpoint_id = endpoint_rec.id 
	  LOOP
	    
		RAISE NOTICE 'NEW SHAPSHOT IS CREATING';
		
		--Connect to the target DB	  
	    EXECUTE 'SELECT dblink_connect(''LINK1'',''host='||endpoint_rec.host||' dbname='||database_rec.name||' user=USER password=PASSWORD '')';
 
        RAISE NOTICE 'host % and dbname % ',endpoint_rec.host,database_rec.name;
		RAISE NOTICE 'Creating snapshot of pg_stat_statements for database %',database_rec.name;
		
		SELECT 
	      *
		INTO 
		  pg_stat_snapshot
	    FROM dblink('LINK1',
	      'SELECT 
	       dbid , SUM(calls),SUM(total_time),SUM(rows) ,SUM(shared_blks_hit) ,SUM(shared_blks_read) ,SUM(shared_blks_dirtied) ,SUM(shared_blks_written) , 
           SUM(local_blks_hit) , SUM(local_blks_read) , SUM(local_blks_dirtied) , SUM(local_blks_written) , SUM(temp_blks_read) , SUM(temp_blks_written) , SUM(blk_read_time) , SUM(blk_write_time)
	       FROM pg_stat_statements WHERE dbid=(SELECT oid from pg_database where datname=current_database() ) 
		   GROUP BY dbid
  	      '
	               )
	      AS t
	       ( dbid oid , calls bigint , 
  	         total_time double precision , 
	         rows bigint , shared_blks_hit bigint , shared_blks_read bigint ,shared_blks_dirtied bigint ,shared_blks_written	 bigint ,
             local_blks_hit	 bigint ,local_blks_read bigint , local_blks_dirtied bigint ,local_blks_written bigint ,
             temp_blks_read	 bigint ,temp_blks_written bigint ,
             blk_read_time double precision , blk_write_time double precision	  
	       );
		 
		INSERT INTO pg_stat_history
          ( 
		    snapshot_timestamp  ,database_id  ,
			dbid , calls  ,total_time ,
            rows ,shared_blks_hit  ,shared_blks_read  ,shared_blks_dirtied  ,shared_blks_written ,local_blks_hit , 	 	
            local_blks_read,local_blks_dirtied,local_blks_written,temp_blks_read,temp_blks_written, 	
            blk_read_time, blk_write_time 
		  )		  
	    VALUES
	      (
	       current_snapshot_timestamp ,
		   database_rec.id ,
	       pg_stat_snapshot.dbid ,pg_stat_snapshot.calls,
	       pg_stat_snapshot.total_time,
	       pg_stat_snapshot.rows ,pg_stat_snapshot.shared_blks_hit ,pg_stat_snapshot.shared_blks_read ,pg_stat_snapshot.shared_blks_dirtied ,pg_stat_snapshot.shared_blks_written , 
           pg_stat_snapshot.local_blks_hit , pg_stat_snapshot.local_blks_read , pg_stat_snapshot.local_blks_dirtied , pg_stat_snapshot.local_blks_written , 
	       pg_stat_snapshot.temp_blks_read , pg_stat_snapshot.temp_blks_written , pg_stat_snapshot.blk_read_time , pg_stat_snapshot.blk_write_time 	   
	      );		   
		  
        RAISE NOTICE 'Creating snapshot of pg_stat_statements for queries with min_time more than 1000ms';
	
        FOR pg_stat_snapshot IN
          --All queries with max_time greater than 1000 ms
	      SELECT 
	        *
	      FROM dblink('LINK1',
	        'SELECT 
	         dbid , userid ,queryid,query,calls,total_time,min_time ,max_time,mean_time, stddev_time ,rows ,shared_blks_hit ,
			 shared_blks_read ,shared_blks_dirtied ,shared_blks_written , 
             local_blks_hit , local_blks_read , local_blks_dirtied , 
			 local_blks_written , temp_blks_read , temp_blks_written , blk_read_time , 
			 blk_write_time
	         FROM pg_stat_statements 
			 WHERE dbid=(SELECT oid from pg_database where datname=current_database() AND min_time >= 1000 ) 
  	        '

	                  )
	        AS t
	         ( dbid oid , userid oid , queryid bigint ,query text , calls bigint , 
  	           total_time double precision ,min_time double precision	 ,max_time double precision	 , mean_time double precision	 ,  stddev_time double precision	 , 
	           rows bigint , shared_blks_hit bigint , shared_blks_read bigint ,shared_blks_dirtied bigint ,shared_blks_written	 bigint ,
               local_blks_hit	 bigint ,local_blks_read bigint , local_blks_dirtied bigint ,local_blks_written bigint ,
               temp_blks_read	 bigint ,temp_blks_written bigint ,
               blk_read_time double precision , blk_write_time double precision	  
	         )
	    LOOP
		  INSERT INTO pg_stat_history
          ( 
		    snapshot_timestamp  ,database_id  ,
			dbid ,userid  , queryid  , query  , calls  ,total_time ,min_time ,max_time ,mean_time ,stddev_time ,
            rows ,shared_blks_hit  ,shared_blks_read  ,shared_blks_dirtied  ,shared_blks_written ,local_blks_hit , 	 	
            local_blks_read,local_blks_dirtied,local_blks_written,temp_blks_read,temp_blks_written, 	
            blk_read_time, blk_write_time 
		  )		  
	      VALUES
	      (
	       current_snapshot_timestamp ,
		   database_rec.id ,
	       pg_stat_snapshot.dbid ,pg_stat_snapshot.userid ,pg_stat_snapshot.queryid,pg_stat_snapshot.query,pg_stat_snapshot.calls,
	       pg_stat_snapshot.total_time,pg_stat_snapshot.min_time ,pg_stat_snapshot.max_time,pg_stat_snapshot.mean_time, pg_stat_snapshot.stddev_time ,
	       pg_stat_snapshot.rows ,pg_stat_snapshot.shared_blks_hit ,pg_stat_snapshot.shared_blks_read ,pg_stat_snapshot.shared_blks_dirtied ,pg_stat_snapshot.shared_blks_written , 
           pg_stat_snapshot.local_blks_hit , pg_stat_snapshot.local_blks_read , pg_stat_snapshot.local_blks_dirtied , pg_stat_snapshot.local_blks_written , 
	       pg_stat_snapshot.temp_blks_read , pg_stat_snapshot.temp_blks_written , pg_stat_snapshot.blk_read_time , pg_stat_snapshot.blk_write_time 	   
	      );
		  
        END LOOP;

        PERFORM dblink_disconnect('LINK1');  
				
	  END LOOP ;--FOR database_rec IN SELECT * FROM database WHERE endpoint_id = endpoint_rec.id 
    
  END LOOP;

RETURN TRUE;  
END
$$ LANGUAGE plpgsql;

Como resultado, despois dun certo período de tempo na táboa pg_stat_history teremos un conxunto de instantáneas do contido da táboa pg_stat_statements base de datos de destino.

De feito, informando

Usando consultas sinxelas, podes obter informes bastante útiles e interesantes.

Datos agregados para un período de tempo determinado

Solicitude

SELECT 
  database_id , 
  SUM(calls) AS calls ,SUM(total_time)  AS total_time ,
  SUM(rows) AS rows , SUM(shared_blks_hit)  AS shared_blks_hit,
  SUM(shared_blks_read) AS shared_blks_read ,
  SUM(shared_blks_dirtied) AS shared_blks_dirtied,
  SUM(shared_blks_written) AS shared_blks_written , 
  SUM(local_blks_hit) AS local_blks_hit , 
  SUM(local_blks_read) AS local_blks_read , 
  SUM(local_blks_dirtied) AS local_blks_dirtied , 
  SUM(local_blks_written)  AS local_blks_written,
  SUM(temp_blks_read) AS temp_blks_read, 
  SUM(temp_blks_written) temp_blks_written , 
  SUM(blk_read_time) AS blk_read_time , 
  SUM(blk_write_time) AS blk_write_time
FROM 
  pg_stat_history
WHERE 
  queryid IS NULL AND
  database_id = DATABASE_ID  AND
  snapshot_timestamp BETWEEN BEGIN_TIMEPOINT AND END_TIMEPOINT
GROUP BY database_id ;

D.B. Tempo

to_char(intervalo '1 milisegundo' * pg_total_stat_history_rec.total_time, 'HH24:MI:SS.MS')

Hora de E/S

to_char(intervalo '1 milisegundo' * ( pg_total_stat_history_rec.blk_read_time + pg_total_stat_history_rec.blk_write_time ), 'HH24:MI:SS.MS')

TOP10 SQL por total_time

Solicitude

SELECT 
  queryid , 
  SUM(calls) AS calls ,
  SUM(total_time)  AS total_time  	
FROM 
  pg_stat_history
WHERE 
  queryid IS NOT NULL AND 
  database_id = DATABASE_ID AND
  snapshot_timestamp BETWEEN BEGIN_TIMEPOINT AND END_TIMEPOINT 
GROUP BY queryid 
ORDER BY 3 DESC 
LIMIT 10
-------------------------------------------------- ------------------------------------ | TOP10 SQL POR TEMPO TOTAL DE EXECUCIÓN | #| queryid| chamadas| chamadas %| tempo_total (ms) | % dbtime +----+-----------+-----------+-----------+------ --------------------+---------- | 1| 821760255| 2| .00001|00:03:23.141( 203141.681 ms.)| 5.42 | 2| 4152624390| 2| .00001|00:03:13.929( 193929.215 ms.)| 5.17 | 3| 1484454471| 4| .00001|00:02:09.129( 129129.057 ms.)| 3.44 | 4| 655729273| 1| .00000|00:02:01.869( 121869.981 ms.)| 3.25 | 5| 2460318461| 1| .00000|00:01:33.113( 93113.835 ms.)| 2.48 | 6| 2194493487| 4| .00001|00:00:17.377( 17377.868 ms.)| .46 | 7| 1053044345| 1| .00000|00:00:06.156( 6156.352 ms.)| .16 | 8| 3644780286| 1| .00000|00:00:01.063( 1063.830 ms.)| .03

TOP10 SQL por tempo total de E/S

Solicitude

SELECT 
  queryid , 
  SUM(calls) AS calls ,
  SUM(blk_read_time + blk_write_time)  AS io_time
FROM 
  pg_stat_history
WHERE 
  queryid IS NOT NULL AND 
  database_id = DATABASE_ID  AND
  snapshot_timestamp BETWEEN BEGIN_TIMEPOINT AND END_TIMEPOINT
GROUP BY  queryid 
ORDER BY 3 DESC 
LIMIT 10
-------------------------------------------------- -------------------------------------- | TOP10 SQL POR TEMPO TOTAL DE E/S | #| queryid| chamadas| chamadas %| Tempo de E/S (ms)|db Tempo de E/S % +----+-----------+-----------+------ -----+-------------------------------+------------ -- | 1| 4152624390| 2| .00001|00:08:31.616( 511616.592 ms.)| 31.06 de xuño | 2| 821760255| 2| .00001|00:08:27.099( 507099.036 ms.)| 30.78 | 3| 655729273| 1| .00000|00:05:02.209( 302209.137 ms.)| 18.35 | 4| 2460318461| 1| .00000|00:04:05.981( 245981.117 ms.)| 14.93 | 5| 1484454471| 4| .00001|00:00:39.144( 39144.221 ms.)| 2.38 | 6| 2194493487| 4| .00001|00:00:18.182( 18182.816 ms.)| 1.10 | 7| 1053044345| 1| .00000|00:00:16.611( 16611.722 ms.)| 1.01 | 8| 3644780286| 1| .00000|00:00:00.436( 436.205 ms.)| .03

TOP10 SQL por tempo máximo de execución

Solicitude

SELECT 
  id AS snapshotid , 
  queryid , 
  snapshot_timestamp ,  
  max_time 
FROM 
  pg_stat_history 
WHERE 
  queryid IS NOT NULL AND 
  database_id = DATABASE_ID  AND
  snapshot_timestamp BETWEEN BEGIN_TIMEPOINT AND END_TIMEPOINT
ORDER BY 4 DESC 
LIMIT 10

-------------------------------------------------- ------------------------------------ | TOP10 SQL POR TEMPO MÁXIMO DE EXECUCIÓN | #| instantánea| snapshotID| queryid| tempo_máx. (ms) +----+------------------+-----------+--------- --+---------------------------------------- | 1| 05.04.2019/01/03 4169:655729273| 00| 02| 01.869:121869.981:2( 04.04.2019 ms.) | 17| 00/4153/821760255 00:01| 41.570| 101570.841| 3:04.04.2019:16( 00 ms.) | 4146| 821760255/00/01 41.570:101570.841| 4| 04.04.2019| 16:00:4144( 4152624390 ms.) | 00| 01/36.964/96964.607 5:04.04.2019| 17| 00| 4151:4152624390:00( 01 ms.) | 36.964| 96964.607/6/05.04.2019 10:00| 4188| 1484454471| 00:01:33.452( 93452.150 ms.) | 7| 04.04.2019/17/00 4150:2460318461 | 00| 01| 33.113:93113.835:8( 04.04.2019 ms.) | 15| 00/4140/1484454471 00:00| 11.892| 11892.302| 9:04.04.2019:16( 00 ms.) | 4145| 1484454471/00/00 11.892:11892.302| 10| 04.04.2019| 17:00:4152( 1484454471 ms.) | 00| 00/11.892/11892.302 XNUMX:XNUMX| XNUMX| XNUMX| XNUMX:XNUMX:XNUMX( XNUMX ms.) | XNUMX| XNUMX/XNUMX/XNUMX XNUMX:XNUMX| XNUMX| XNUMX| XNUMX:XNUMX:XNUMX (XNUMX ms.)

TOP10 SQL por lectura/escritura do búfer COMPARTIDO

Solicitude

SELECT 
  id AS snapshotid , 
  queryid ,
  snapshot_timestamp , 
  shared_blks_read , 
  shared_blks_written 
FROM 
  pg_stat_history
WHERE 
  queryid IS NOT NULL AND 
  database_id = DATABASE_ID  AND
  snapshot_timestamp BETWEEN BEGIN_TIMEPOINT AND END_TIMEPOINT AND
  ( shared_blks_read > 0 OR shared_blks_written > 0 )
ORDER BY 4 DESC  , 5 DESC 
LIMIT 10
-------------------------------------------------- ------------------------------------ | TOP10 SQL POR LECTURA/ESCRITURA DE BÚFFER COMPARTIDO | #| instantánea| snapshotID| queryid| bloques compartidos ler| bloques compartidos escribir +----+------------------+-----------+---------- -+---------------------+--------------------- | 1| 04.04.2019/17/00 4153:821760255| 797308| 0| 2| 04.04.2019 | 16| 00/4146/821760255 797308:0| 3| 05.04.2019| 01| 03 | 4169| 655729273/797158/0 4:04.04.2019| 16| 00| 4144| 4152624390 | 756514| 0/5/04.04.2019 17:00| 4151| 4152624390| 756514| 0 | 6| 04.04.2019/17/00 4150:2460318461| 734117| 0| 7| 04.04.2019 | 17| 00/4155/3644780286 52973:0| 8| 05.04.2019| 01| 03 | 4168| 1053044345/52818/0 9:04.04.2019| 15| 00| 4141| 2194493487 | 52813| 0/10/04.04.2019 16:00| 4147| 2194493487| 52813| 0 | XNUMX| XNUMX/XNUMX/XNUMX XNUMX:XNUMX| XNUMX| XNUMX| XNUMX| XNUMX | XNUMX| XNUMX/XNUMX/XNUMX XNUMX:XNUMX| XNUMX| XNUMX| XNUMX| XNUMX -------------------------------------------------- -------------------------------------------------

Histograma da distribución de consultas por tempo máximo de execución

Solicitudes

SELECT  
  MIN(max_time) AS hist_min  , 
  MAX(max_time) AS hist_max , 
  (( MAX(max_time) - MIN(min_time) ) / hist_columns ) as hist_width
FROM 
  pg_stat_history 
WHERE 
  queryid IS NOT NULL AND
  database_id = DATABASE_ID  AND
  snapshot_timestamp BETWEEN BEGIN_TIMEPOINT AND END_TIMEPOINT ;

SELECT 
  SUM(calls) AS calls
FROM 
  pg_stat_history 
WHERE 
  queryid IS NOT NULL AND
  database_id =DATABASE_ID  AND
  snapshot_timestamp BETWEEN BEGIN_TIMEPOINT AND END_TIMEPOINT AND 
  ( max_time >= hist_current_min AND  max_time < hist_current_max ) ;
|------------------------------------------------- ---------------------------------------- | MAX_TIME HISTOGRAMA | TOTAL CHAMADAS : 33851920 | TEMPO MIN: 00:00:01.063 | TEMPO MÁXIMO : 00:02:01.869 --------------------------------- -------- ---------------------------- | duración mínima| duración máxima| chamadas +---------------------------------+-------------- ---------------------+----------- | 00:00:01.063 (1063.830 ms.) | 00:00:13.144( 13144.445 ms.) | 9 | 00:00:13.144( 13144.445 ms.) | 00:00:25.225( 25225.060 ms.) | 0 | 00:00:25.225( 25225.060 ms.) | 00:00:37.305( 37305.675 ms.) | 0 | 00:00:37.305( 37305.675 ms.) | 00:00:49.386( 49386.290 ms.) | 0 | 00:00:49.386( 49386.290 ms.) | 00:01:01.466( 61466.906 ms.) | 0 | 00:01:01.466( 61466.906 ms.) | 00:01:13.547( 73547.521 ms.) | 0 | 00:01:13.547( 73547.521 ms.) | 00:01:25.628( 85628.136 ms.) | 0 | 00:01:25.628( 85628.136 ms.) | 00:01:37.708( 97708.751 ms.) | 4 | 00:01:37.708( 97708.751 ms.) | 00:01:49.789( 109789.366 ms.) | 2 | 00:01:49.789( 109789.366 ms.) | 00:02:01.869( 121869.981 ms.) | 0

TOP10 instantáneas por consulta por segundo

Solicitudes

--pg_qps.sql
--Calculate Query Per Second 
CREATE OR REPLACE FUNCTION pg_qps( pg_stat_history_id integer ) RETURNS double precision AS $$
DECLARE
 pg_stat_history_rec record ;
 prev_pg_stat_history_id integer ;
 prev_pg_stat_history_rec record;
 total_seconds double precision ;
 result double precision;
BEGIN 
  result = 0 ;
  
  SELECT *
  INTO pg_stat_history_rec
  FROM 
    pg_stat_history
  WHERE id = pg_stat_history_id ;

  IF pg_stat_history_rec.snapshot_timestamp IS NULL 
  THEN
    RAISE EXCEPTION 'ERROR - Not found pg_stat_history for id = %',pg_stat_history_id;
  END IF ;  
  
 --RAISE NOTICE 'pg_stat_history_id = % , snapshot_timestamp = %', pg_stat_history_id , 
 pg_stat_history_rec.snapshot_timestamp ;
  
  SELECT 
    MAX(id)   
  INTO
    prev_pg_stat_history_id
  FROM
    pg_stat_history
  WHERE 
    database_id = pg_stat_history_rec.database_id AND
	queryid IS NULL AND
	id < pg_stat_history_rec.id ;

  IF prev_pg_stat_history_id IS NULL 
  THEN
    RAISE NOTICE 'Not found previous pg_stat_history shapshot for id = %',pg_stat_history_id;
	RETURN NULL ;
  END IF;
  
  SELECT *
  INTO prev_pg_stat_history_rec
  FROM 
    pg_stat_history
  WHERE id = prev_pg_stat_history_id ;
  
  --RAISE NOTICE 'prev_pg_stat_history_id = % , prev_snapshot_timestamp = %', prev_pg_stat_history_id , prev_pg_stat_history_rec.snapshot_timestamp ;    

  total_seconds = extract(epoch from ( pg_stat_history_rec.snapshot_timestamp - prev_pg_stat_history_rec.snapshot_timestamp ));
  
  --RAISE NOTICE 'total_seconds = % ', total_seconds ;    
  
  --RAISE NOTICE 'calls = % ', pg_stat_history_rec.calls ;      
  
  IF total_seconds > 0 
  THEN
    result = pg_stat_history_rec.calls / total_seconds ;
  ELSE
   result = 0 ; 
  END IF;
   
 RETURN result ;
END
$$ LANGUAGE plpgsql;


SELECT 
  id , 
  snapshot_timestamp ,
  calls , 	
  total_time , 
  ( select pg_qps( id )) AS QPS ,
  blk_read_time ,
  blk_write_time
FROM 
  pg_stat_history
WHERE 
  queryid IS NULL AND 
  database_id = DATABASE_ID  AND
  snapshot_timestamp BETWEEN BEGIN_TIMEPOINT AND END_TIMEPOINT AND
  ( select pg_qps( id )) IS NOT NULL 
ORDER BY 5 DESC 
LIMIT 10
|------------------------------------------------- ---------------------------------------- | TOP10 instantáneas ordenadas por números QueryPerSeconds ------------------------------------- ------ ------------------------------------------- ------ ------------------------------------------- | #| instantánea| snapshotID| chamadas| dbtime total| QPS | Tempo de E/S | % de tempo de E/S +-----+------------------+-----------+------- ----+---------------------------------+----------- -+---------------------------------+----------- | 1| 04.04.2019/20/04 4161:5758631| 00| 06| 30.513:390513.926:1573.396(00 ms.)| 00| 01.470:1470.110:376 (2 ms.)| .04.04.2019 | 17| 00/4149/3529197 00:11| 48.830| 708830.618| 980.332:00:12 (47.834 ms.)| 767834.052| 108.324:3:04.04.2019( 16 ms.)| 00 | 4143| 3525360/00/10 13.492:613492.351| 979.267| 00| 08:41.396:521396.555( 84.988 ms.)| 4| 04.04.2019:21:03(4163 ms.)| 2781536 | 00| 03/06.470/186470.979 785.745:00| 00| 00.249| 249.865:134:5 (04.04.2019 ms.)| 19| 03:4159:2890362 (00 ms.)| .03 | 16.784| 196784.755/776.979/00 00:01.441| 1441.386| 732| 6:04.04.2019:14( 00 ms.)| 4137| 2397326:00:04 (43.033 ms.)| .283033.854 | 665.924| 00/00/00.024 24.505:009| 7| 04.04.2019| 15:00:4139( 2394416 ms.)| 00| 04:51.435:291435.010 (665.116 ms.)| .00 | 00| 12.025/12025.895/4.126 8:04.04.2019| 13| 00| 4135:2373043:00 (04 ms.)| 26.791| 266791.988:659.179:00( 00 ms.)| 00.064 | 64.261| 024/9/05.04.2019 01:03 | 4167| 4387191| 00:06:51.380( 411380.293 ms.)| 609.332| 00:05:18.847 (318847.407 ms.)| .77.507 | 10| 04.04.2019/18/01 4157:1145596| 00| 01| 19.217:79217.372:313.004 (00 ms.)| 00| 01.319:1319.676:1.666( XNUMX ms.)| XNUMX | XNUMX| XNUMX/XNUMX/XNUMX XNUMX:XNUMX| XNUMX| XNUMX| XNUMX:XNUMX:XNUMX (XNUMX ms.)| XNUMX| XNUMX:XNUMX:XNUMX (XNUMX ms.)| XNUMX

Historial de execución por hora con QueryPerSeconds e tempo de E/S

Solicitude

SELECT 
  id , 
  snapshot_timestamp ,
  calls , 	
  total_time , 
  ( select pg_qps( id )) AS QPS ,
  blk_read_time ,
  blk_write_time
FROM 
  pg_stat_history
WHERE 
  queryid IS NULL AND 
  database_id = DATABASE_ID  AND
  snapshot_timestamp BETWEEN BEGIN_TIMEPOINT AND END_TIMEPOINT
ORDER BY 2
|-----------------------------------------------------------------------------------------------
| HOURLY EXECUTION HISTORY  WITH QueryPerSeconds and I/O Time
-----------------------------------------------------------------------------------------------------------------------------------------------
| QUERY PER SECOND HISTORY
|    #|          snapshot| snapshotID|      calls|                      total dbtime|        QPS|                          I/O time| I/O time %
+-----+------------------+-----------+-----------+----------------------------------+-----------+----------------------------------+-----------
|    1|  04.04.2019 11:00|       4131|       3747|  00:00:00.835(       835.374 ms.)|      1.041|  00:00:00.000(          .000 ms.)|       .000
|    2|  04.04.2019 12:00|       4133|    1002722|  00:01:52.419(    112419.376 ms.)|    278.534|  00:00:00.149(       149.105 ms.)|       .133
|    3|  04.04.2019 13:00|       4135|    2373043|  00:04:26.791(    266791.988 ms.)|    659.179|  00:00:00.064(        64.261 ms.)|       .024
|    4|  04.04.2019 14:00|       4137|    2397326|  00:04:43.033(    283033.854 ms.)|    665.924|  00:00:00.024(        24.505 ms.)|       .009
|    5|  04.04.2019 15:00|       4139|    2394416|  00:04:51.435(    291435.010 ms.)|    665.116|  00:00:12.025(     12025.895 ms.)|      4.126
|    6|  04.04.2019 16:00|       4143|    3525360|  00:10:13.492(    613492.351 ms.)|    979.267|  00:08:41.396(    521396.555 ms.)|     84.988
|    7|  04.04.2019 17:00|       4149|    3529197|  00:11:48.830(    708830.618 ms.)|    980.332|  00:12:47.834(    767834.052 ms.)|    108.324
|    8|  04.04.2019 18:01|       4157|    1145596|  00:01:19.217(     79217.372 ms.)|    313.004|  00:00:01.319(      1319.676 ms.)|      1.666
|    9|  04.04.2019 19:03|       4159|    2890362|  00:03:16.784(    196784.755 ms.)|    776.979|  00:00:01.441(      1441.386 ms.)|       .732
|   10|  04.04.2019 20:04|       4161|    5758631|  00:06:30.513(    390513.926 ms.)|   1573.396|  00:00:01.470(      1470.110 ms.)|       .376
|   11|  04.04.2019 21:03|       4163|    2781536|  00:03:06.470(    186470.979 ms.)|    785.745|  00:00:00.249(       249.865 ms.)|       .134
|   12|  04.04.2019 23:03|       4165|    1443155|  00:01:34.467(     94467.539 ms.)|    200.438|  00:00:00.015(        15.287 ms.)|       .016
|   13|  05.04.2019 01:03|       4167|    4387191|  00:06:51.380(    411380.293 ms.)|    609.332|  00:05:18.847(    318847.407 ms.)|     77.507
|   14|  05.04.2019 02:03|       4171|     189852|  00:00:10.989(     10989.899 ms.)|     52.737|  00:00:00.539(       539.110 ms.)|      4.906
|   15|  05.04.2019 03:01|       4173|       3627|  00:00:00.103(       103.000 ms.)|      1.042|  00:00:00.004(         4.131 ms.)|      4.010
|   16|  05.04.2019 04:00|       4175|       3627|  00:00:00.085(        85.235 ms.)|      1.025|  00:00:00.003(         3.811 ms.)|      4.471
|   17|  05.04.2019 05:00|       4177|       3747|  00:00:00.849(       849.454 ms.)|      1.041|  00:00:00.006(         6.124 ms.)|       .721
|   18|  05.04.2019 06:00|       4179|       3747|  00:00:00.849(       849.561 ms.)|      1.041|  00:00:00.000(          .051 ms.)|       .006
|   19|  05.04.2019 07:00|       4181|       3747|  00:00:00.839(       839.416 ms.)|      1.041|  00:00:00.000(          .062 ms.)|       .007
|   20|  05.04.2019 08:00|       4183|       3747|  00:00:00.846(       846.382 ms.)|      1.041|  00:00:00.000(          .007 ms.)|       .001
|   21|  05.04.2019 09:00|       4185|       3747|  00:00:00.855(       855.426 ms.)|      1.041|  00:00:00.000(          .065 ms.)|       .008
|   22|  05.04.2019 10:00|       4187|       3797|  00:01:40.150(    100150.165 ms.)|      1.055|  00:00:21.845(     21845.217 ms.)|     21.812

Texto de todas as seleccións SQL

Solicitude

SELECT 
  queryid , 
  query 
FROM 
  pg_stat_history
WHERE 
  queryid IS NOT NULL AND 
  database_id = DATABASE_ID  AND
  snapshot_timestamp BETWEEN BEGIN_TIMEPOINT AND END_TIMEPOINT
GROUP BY queryid , query

Total

Como podes ver, por medios bastante sinxelos, podes obter moita información útil sobre a carga de traballo e o estado da base de datos.

Nota:Se corrixese o queryid nas consultas, obteremos o historial dunha solicitude separada (para aforrar espazo, omítense os informes dunha solicitude separada).

Así, os datos estatísticos sobre o rendemento das consultas están dispoñibles e recóllense.
Remata a primeira etapa de "recollida de datos estatísticos".

Podes pasar á segunda etapa: "Configuración das métricas de rendemento".
Monitorización do rendemento das consultas PostgreSQL. Parte 1 - Informes

Pero esa é outra historia.

Continuar ...

Fonte: www.habr.com

Engadir un comentario