Боркунии гузориши PostgreSQL аз абри AWS

Ё каме тетрисологияи амалӣ.
Ҳама чизи нав хеле фаромӯшшуда аст.
Эпиграфҳо.
Боркунии гузориши PostgreSQL аз абри AWS

Тартиб додани масъала

Шумо бояд мунтазам файли гузориши PostgreSQL-ро аз абри AWS ба мизбони маҳаллии Linux зеркашӣ кунед. На дар вақти воқеӣ, балки, бигӯем, бо каме таъхир.
Давраи зеркашии навсозии файли гузориш 5 дақиқа аст.
Файли сабт дар AWS ҳар соат гардиш карда мешавад.

Воситаҳои истифодашуда

Барои зеркашии файли гузориш ба мизбон, скрипти bash истифода мешавад, ки AWS API-ро даъват мекунад "aws rds зеркашӣ-db-log-файл-қисми".

Параметрҳо:

  • —db-instance-identifier: Номи мисоли AWS;
  • --log-file-name: номи файли сабти ҳозира тавлидшуда
  • --max-item: Шумораи умумии ҷузъҳои дар баромади фармон баргардонидашуда.Андозаи қисми файли зеркашидашуда.
  • --starting-token: аломати оғозёбӣ

Дар ин ҳолат, вазифаи бор кардани логҳо ҳангоми кор ба миён омад мониторинги иҷрои дархостҳои PostgreSQL.

Ва ин оддӣ аст - як вазифаи ҷолиб барои омӯзиш ва гуногун дар давоми соатҳои корӣ.
Ман тахмин мекунам, ки мушкилот аллакай аз ҳисоби ҳаёти ҳаррӯза ҳал шудааст. Аммо Google-и зуд ҳеҷ гуна ҳалли худро пешниҳод накард ва ман барои ҷустуҷӯи амиқтар хоҳиш надоштам. Дар ҳар сурат, ин як машқи хуб аст.

Ба расмият даровардани вазифа

Файли ниҳоии гузориш аз сатрҳои зиёди дарозии тағйирёбанда иборат аст. Ба таври графикӣ, файли журнал метавонад чунин тасвир карда шавад:
Боркунии гузориши PostgreSQL аз абри AWS

Оё он аллакай ба шумо чизеро хотиррасон мекунад? Тетрис бо он чӣ иртибот дорад? Ва ин аст, ки он бо он чӣ кор дорад.
Агар мо имконоти имконпазиреро, ки ҳангоми боркунии файли навбатӣ ба таври графикӣ ба миён меоянд, тасаввур кунем (барои соддагӣ, дар ин ҳолат, бигзор сатрҳо якхела бошанд), мо мегирем Қисмҳои стандартии Tetris:

1) Файл пурра зеркашӣ карда мешавад ва ниҳоӣ аст. Андозаи қисм аз андозаи ниҳоии файл калонтар аст:
Боркунии гузориши PostgreSQL аз абри AWS

2) Файл идома дорад. Андозаи порча аз андозаи ниҳоии файл хурдтар аст:
Боркунии гузориши PostgreSQL аз абри AWS

3) Файл идомаи файли қаблӣ буда, идома дорад. Андозаи порча аз андозаи боқимондаи файли ниҳоӣ хурдтар аст:
Боркунии гузориши PostgreSQL аз абри AWS

4) Файл идомаи файли қаблӣ буда, охирин аст. Андозаи порча аз андозаи боқимондаи файли ниҳоӣ калонтар аст:
Боркунии гузориши PostgreSQL аз абри AWS

Вазифа аз он иборат аст, ки як росткунҷа ё бозӣ Тетрис дар сатҳи нав.
Боркунии гузориши PostgreSQL аз абри AWS

Проблемаҳое, ки ҳангоми ҳалли мушкилот ба миён меоянд

1) Як сатри 2 дона часпонед

Боркунии гузориши PostgreSQL аз абри AWS
Умуман, ягон мушкилоти махсус вуҷуд надошт. Масъалаи стандартӣ аз курси ибтидоии барномасозӣ.

Андозаи оптималии хидмат

Аммо ин каме ҷолибтар аст.
Мутаассифона, ҳеҷ роҳе барои истифодаи офсет пас аз нишони қисми ибтидоӣ вуҷуд надорад:

Тавре ки шумо аллакай медонед, вариант — starting-token барои муайян кардани куҷо сар кардани саҳифагузорӣ истифода мешавад. Ин хосият арзишҳои String-ро мегирад, ки маънои онро дорад, ки агар шумо кӯшиш кунед, ки арзиши офсетро дар пеши сатри Токени Next илова кунед, опсия ҳамчун ҷуброн ба назар гирифта намешавад.

Ва аз ин рӯ, шумо бояд онро ба қисмҳо хонед.
Агар шумо дар қисмҳои калон хонед, шумораи хонишҳо ҳадди аққал хоҳад буд, аммо ҳаҷми ҳадди аксар хоҳад буд.
Агар шумо дар қисмҳои хурд хонед, баръакс, шумораи хонишҳо ҳадди аксар хоҳад буд, аммо ҳаҷм ҳадди аққал хоҳад буд.
Аз ин рӯ, барои кам кардани трафик ва барои зебоии умумии ҳалли ман, ман маҷбур будам, ки ҳалли худро пайдо кунам, ки мутаассифона, каме ба асобакаш монанд аст.

Барои мисол, биёед раванди зеркашии файли сабтро дар 2 версияи хеле соддашуда дида бароем. Шумораи хонишҳо дар ҳарду ҳолат аз андозаи қисм вобаста аст.

1) Дар қисмҳои хурд бор кунед:
Боркунии гузориши PostgreSQL аз абри AWS

2) Дар қисмҳои калон бор кунед:
Боркунии гузориши PostgreSQL аз абри AWS

Чун одат, ҳалли беҳтарин дар миёна аст.
Андозаи хидмат ҳадди аққал аст, аммо дар ҷараёни хониш, андозаро метавон барои кам кардани шумораи хонишҳо зиёд кард.

Бояд кайд кард ки масъалаи хоста гирифтани андозаи оптималии кисми хониш хануз хал нашудааст ва омузиш ва тахлили чукуртарро талаб мекунад. Шояд каме дертар.

Тавсифи умумии татбиқ

Ҷадвалҳои хидматрасонӣ истифода мешаванд

CREATE TABLE endpoint
(
id SERIAL ,
host text 
);

TABLE database
(
id SERIAL , 
…
last_aws_log_time text ,
last_aws_nexttoken text ,
aws_max_item_size integer 
);
last_aws_log_time — временная метка последнего загруженного лог-файла в формате YYYY-MM-DD-HH24.
last_aws_nexttoken — текстовая метка последней загруженной порции.
aws_max_item_size- эмпирическим путем, подобранный начальный размер порции.

Матни пурраи скрипт

download_aws_piece.sh

#!/bin/bash
#########################################################
# download_aws_piece.sh
# downloan piece of log from AWS
# version HABR
 let min_item_size=1024
 let max_item_size=1048576
 let growth_factor=3
 let growth_counter=1
 let growth_counter_max=3

 echo $(date +%Y%m%d%H%M)':    download_aws_piece.sh:''STARTED'
 
 AWS_LOG_TIME=$1
 echo $(date +%Y%m%d%H%M)':    download_aws_piece.sh:AWS_LOG_TIME='$AWS_LOG_TIME
  
 database_id=$2
 echo $(date +%Y%m%d%H%M)':    download_aws_piece.sh:database_id='$database_id
 RESULT_FILE=$3 
  
 endpoint=`psql -h MONITOR_ENDPOINT.rds.amazonaws.com -U USER -d MONITOR_DATABASE_DATABASE -A -t -c "select e.host from endpoint e join database d on e.id = d.endpoint_id where d.id = $database_id "`
 echo $(date +%Y%m%d%H%M)':    download_aws_piece.sh:endpoint='$endpoint
  
 db_instance=`echo $endpoint | awk -F"." '{print toupper($1)}'`
 
 echo $(date +%Y%m%d%H%M)':    download_aws_piece.sh:db_instance='$db_instance

 LOG_FILE=$RESULT_FILE'.tmp_log'
 TMP_FILE=$LOG_FILE'.tmp'
 TMP_MIDDLE=$LOG_FILE'.tmp_mid'  
 TMP_MIDDLE2=$LOG_FILE'.tmp_mid2'  
  
 current_aws_log_time=`psql -h MONITOR_ENDPOINT.rds.amazonaws.com -U USER -d MONITOR_DATABASE -A -t -c "select last_aws_log_time from database where id = $database_id "`

 echo $(date +%Y%m%d%H%M)':      download_aws_piece.sh:current_aws_log_time='$current_aws_log_time
  
  if [[ $current_aws_log_time != $AWS_LOG_TIME  ]];
  then
    is_new_log='1'
	if ! psql -h MONITOR_ENDPOINT.rds.amazonaws.com -U USER -d MONITOR_DATABASE -v ON_ERROR_STOP=1 -A -t -q -c "update database set last_aws_log_time = '$AWS_LOG_TIME' where id = $database_id "
	then
	  echo $(date +%Y%m%d%H%M)':    download_aws_piece.sh: FATAL_ERROR - update database set last_aws_log_time .'
	  exit 1
	fi
  else
    is_new_log='0'
  fi
  
  echo $(date +%Y%m%d%H%M)':    download_aws_piece.sh:is_new_log='$is_new_log
  
  let last_aws_max_item_size=`psql -h MONITOR_ENDPOINT.rds.amazonaws.com -U USER -d MONITOR_DATABASE -A -t -c "select aws_max_item_size from database where id = $database_id "`
  echo $(date +%Y%m%d%H%M)':    download_aws_piece.sh: last_aws_max_item_size='$last_aws_max_item_size
  
  let count=1
  if [[ $is_new_log == '1' ]];
  then    
	echo $(date +%Y%m%d%H%M)':    download_aws_piece.sh: START DOWNLOADING OF NEW AWS LOG'
	if ! aws rds download-db-log-file-portion 
		--max-items $last_aws_max_item_size 
		--region REGION 
		--db-instance-identifier  $db_instance 
		--log-file-name error/postgresql.log.$AWS_LOG_TIME > $LOG_FILE
	then
		echo $(date +%Y%m%d%H%M)':    download_aws_piece.sh: FATAL_ERROR - Could not get log from AWS .'
		exit 2
	fi  	
  else
    next_token=`psql -h MONITOR_ENDPOINT.rds.amazonaws.com -U USER -d MONITOR_DATABASE -v ON_ERROR_STOP=1 -A -t -c "select last_aws_nexttoken from database where id = $database_id "`
	
	if [[ $next_token == '' ]];
	then
	  next_token='0'	  
	fi
	
	echo $(date +%Y%m%d%H%M)':    download_aws_piece.sh: CONTINUE DOWNLOADING OF AWS LOG'
	if ! aws rds download-db-log-file-portion 
	    --max-items $last_aws_max_item_size 
		--starting-token $next_token 
		--region REGION 
		--db-instance-identifier  $db_instance 
		--log-file-name error/postgresql.log.$AWS_LOG_TIME > $LOG_FILE
	then
		echo $(date +%Y%m%d%H%M)':    download_aws_piece.sh: FATAL_ERROR - Could not get log from AWS .'
		exit 3
	fi       
	
	line_count=`cat  $LOG_FILE | wc -l`
	let lines=$line_count-1
	  
	tail -$lines $LOG_FILE > $TMP_MIDDLE 
	mv -f $TMP_MIDDLE $LOG_FILE
  fi
  
  next_token_str=`cat $LOG_FILE | grep NEXTTOKEN` 
  next_token=`echo $next_token_str | awk -F" " '{ print $2}' `
  
  grep -v NEXTTOKEN $LOG_FILE  > $TMP_FILE 
  
  if [[ $next_token == '' ]];
  then
	  cp $TMP_FILE $RESULT_FILE
	  
	  echo $(date +%Y%m%d%H%M)':    download_aws_piece.sh:  NEXTTOKEN NOT FOUND - FINISH '
	  rm $LOG_FILE 
	  rm $TMP_FILE
	  rm $TMP_MIDDLE
          rm $TMP_MIDDLE2	  
	  exit 0  
  else
	psql -h MONITOR_ENDPOINT.rds.amazonaws.com -U USER -d MONITOR_DATABASE -v ON_ERROR_STOP=1 -A -t -q -c "update database set last_aws_nexttoken = '$next_token' where id = $database_id "
  fi
  
  first_str=`tail -1 $TMP_FILE`
  
  line_count=`cat  $TMP_FILE | wc -l`
  let lines=$line_count-1    
  
  head -$lines $TMP_FILE  > $RESULT_FILE

###############################################
# MAIN CIRCLE
  let count=2
  while [[ $next_token != '' ]];
  do 
    echo $(date +%Y%m%d%H%M)':    download_aws_piece.sh: count='$count
	
	echo $(date +%Y%m%d%H%M)':    download_aws_piece.sh: START DOWNLOADING OF AWS LOG'
	if ! aws rds download-db-log-file-portion 
             --max-items $last_aws_max_item_size 
             --starting-token $next_token 
             --region REGION 
             --db-instance-identifier  $db_instance 
             --log-file-name error/postgresql.log.$AWS_LOG_TIME > $LOG_FILE
	then
		echo $(date +%Y%m%d%H%M)':    download_aws_piece.sh: FATAL_ERROR - Could not get log from AWS .'
		exit 4
	fi

	next_token_str=`cat $LOG_FILE | grep NEXTTOKEN` 
	next_token=`echo $next_token_str | awk -F" " '{ print $2}' `

	TMP_FILE=$LOG_FILE'.tmp'
	grep -v NEXTTOKEN $LOG_FILE  > $TMP_FILE  
	
	last_str=`head -1 $TMP_FILE`
  
    if [[ $next_token == '' ]];
	then
	  concat_str=$first_str$last_str
	  	  
	  echo $concat_str >> $RESULT_FILE
		 
	  line_count=`cat  $TMP_FILE | wc -l`
	  let lines=$line_count-1
	  
	  tail -$lines $TMP_FILE >> $RESULT_FILE
	  
	  echo $(date +%Y%m%d%H%M)':    download_aws_piece.sh:  NEXTTOKEN NOT FOUND - FINISH '
	  rm $LOG_FILE 
	  rm $TMP_FILE
	  rm $TMP_MIDDLE
          rm $TMP_MIDDLE2	  
	  exit 0  
	fi
	
    if [[ $next_token != '' ]];
	then
		let growth_counter=$growth_counter+1
		if [[ $growth_counter -gt $growth_counter_max ]];
		then
			let last_aws_max_item_size=$last_aws_max_item_size*$growth_factor
			let growth_counter=1
		fi
	
		if [[ $last_aws_max_item_size -gt $max_item_size ]]; 
		then
			let last_aws_max_item_size=$max_item_size
		fi 

	  psql -h MONITOR_ENDPOINT.rds.amazonaws.com -U USER -d MONITOR_DATABASE -A -t -q -c "update database set last_aws_nexttoken = '$next_token' where id = $database_id "
	  
	  concat_str=$first_str$last_str
	  	  
	  echo $concat_str >> $RESULT_FILE
		 
	  line_count=`cat  $TMP_FILE | wc -l`
	  let lines=$line_count-1
	  
	  #############################
	  #Get middle of file
	  head -$lines $TMP_FILE > $TMP_MIDDLE
	  
	  line_count=`cat  $TMP_MIDDLE | wc -l`
	  let lines=$line_count-1
	  tail -$lines $TMP_MIDDLE > $TMP_MIDDLE2
	  
	  cat $TMP_MIDDLE2 >> $RESULT_FILE	  
	  
	  first_str=`tail -1 $TMP_FILE`	  
	fi
	  
    let count=$count+1

  done
#
#################################################################

exit 0  

Порчаҳои скрипт бо баъзе шарҳҳо:

Параметрҳои вуруди скрипт:

  • Тамғаи вақти номи файли гузориш дар формати YYYY-MM-DD-HH24: AWS_LOG_TIME=$1
  • ID базаи маълумот: database_id=$2
  • Номи файли журнали ҷамъшуда: RESULT_FILE=$3

Тамғаи вақти файли сабти охирин боршударо гиред:

current_aws_log_time=`psql -h MONITOR_ENDPOINT.rds.amazonaws.com -U USER -d MONITOR_DATABASE -A -t -c "select last_aws_log_time from database where id = $database_id "`

Агар тамғаи вақти файли сабти охирин боршуда ба параметри вуруд мувофиқат накунад, файли нави гузориш бор карда мешавад:

if [[ $current_aws_log_time != $AWS_LOG_TIME  ]];
  then
    is_new_log='1'
	if ! psql -h ENDPOINT.rds.amazonaws.com -U USER -d MONITOR_DATABASE -v ON_ERROR_STOP=1 -A -t -c "update database set last_aws_log_time = '$AWS_LOG_TIME' where id = $database_id "
	then
	  echo '***download_aws_piece.sh -FATAL_ERROR - update database set last_aws_log_time .'
	  exit 1
	fi
  else
    is_new_log='0'
  fi

Мо аз файли зеркашида арзиши нишони навбатӣ мегирем:

  next_token_str=`cat $LOG_FILE | grep NEXTTOKEN` 
  next_token=`echo $next_token_str | awk -F" " '{ print $2}' `

Арзиши навбатии холӣ ҳамчун аломати анҷоми зеркашӣ хизмат мекунад.

Дар як ҳалқа, мо қисмҳои файлро ҳисоб мекунем, сатрҳоро дар тӯли роҳ пайваст мекунем ва андозаи қисмро зиёд мекунем:
Давраи асосӣ

# MAIN CIRCLE
  let count=2
  while [[ $next_token != '' ]];
  do 
    echo $(date +%Y%m%d%H%M)':    download_aws_piece.sh: count='$count
	
	echo $(date +%Y%m%d%H%M)':    download_aws_piece.sh: START DOWNLOADING OF AWS LOG'
	if ! aws rds download-db-log-file-portion 
     --max-items $last_aws_max_item_size 
	 --starting-token $next_token 
     --region REGION 
     --db-instance-identifier  $db_instance 
     --log-file-name error/postgresql.log.$AWS_LOG_TIME > $LOG_FILE
	then
		echo $(date +%Y%m%d%H%M)':    download_aws_piece.sh: FATAL_ERROR - Could not get log from AWS .'
		exit 4
	fi

	next_token_str=`cat $LOG_FILE | grep NEXTTOKEN` 
	next_token=`echo $next_token_str | awk -F" " '{ print $2}' `

	TMP_FILE=$LOG_FILE'.tmp'
	grep -v NEXTTOKEN $LOG_FILE  > $TMP_FILE  
	
	last_str=`head -1 $TMP_FILE`
  
    if [[ $next_token == '' ]];
	then
	  concat_str=$first_str$last_str
	  	  
	  echo $concat_str >> $RESULT_FILE
		 
	  line_count=`cat  $TMP_FILE | wc -l`
	  let lines=$line_count-1
	  
	  tail -$lines $TMP_FILE >> $RESULT_FILE
	  
	  echo $(date +%Y%m%d%H%M)':    download_aws_piece.sh:  NEXTTOKEN NOT FOUND - FINISH '
	  rm $LOG_FILE 
	  rm $TMP_FILE
	  rm $TMP_MIDDLE
         rm $TMP_MIDDLE2	  
	  exit 0  
	fi
	
    if [[ $next_token != '' ]];
	then
		let growth_counter=$growth_counter+1
		if [[ $growth_counter -gt $growth_counter_max ]];
		then
			let last_aws_max_item_size=$last_aws_max_item_size*$growth_factor
			let growth_counter=1
		fi
	
		if [[ $last_aws_max_item_size -gt $max_item_size ]]; 
		then
			let last_aws_max_item_size=$max_item_size
		fi 

	  psql -h MONITOR_ENDPOINT.rds.amazonaws.com -U USER -d MONITOR_DATABASE -A -t -q -c "update database set last_aws_nexttoken = '$next_token' where id = $database_id "
	  
	  concat_str=$first_str$last_str
	  	  
	  echo $concat_str >> $RESULT_FILE
		 
	  line_count=`cat  $TMP_FILE | wc -l`
	  let lines=$line_count-1
	  
	  #############################
	  #Get middle of file
	  head -$lines $TMP_FILE > $TMP_MIDDLE
	  
	  line_count=`cat  $TMP_MIDDLE | wc -l`
	  let lines=$line_count-1
	  tail -$lines $TMP_MIDDLE > $TMP_MIDDLE2
	  
	  cat $TMP_MIDDLE2 >> $RESULT_FILE	  
	  
	  first_str=`tail -1 $TMP_FILE`	  
	fi
	  
    let count=$count+1

  done

Баъд чӣ?

Ҳамин тариқ, вазифаи аввалини мобайнӣ - "файлро аз абр зеркашӣ кунед" ҳал карда шуд. Бо сабти зеркашида чӣ бояд кард?
Аввалан, шумо бояд файли сабтро таҳлил кунед ва дархостҳои воқеиро аз он хориҷ кунед.
Вазифа чандон душвор нест. Соддатарин скрипти bash ин корро хеле хуб иҷро мекунад.
upload_log_query.sh

#!/bin/bash
#########################################################
# upload_log_query.sh
# Upload table table from dowloaded aws file 
# version HABR
###########################################################  
echo 'TIMESTAMP:'$(date +%c)' Upload log_query table '
source_file=$1
echo 'source_file='$source_file
database_id=$2
echo 'database_id='$database_id

beginer=' '
first_line='1'
let "line_count=0"
sql_line=' '
sql_flag=' '    
space=' '
cat $source_file | while read line
do
  line="$space$line"

  if [[ $first_line == "1" ]]; then
    beginer=`echo $line | awk -F" " '{ print $1}' `
    first_line='0'
  fi

  current_beginer=`echo $line | awk -F" " '{ print $1}' `

  if [[ $current_beginer == $beginer ]]; then
    if [[ $sql_flag == '1' ]]; then
     sql_flag='0' 
     log_date=`echo $sql_line | awk -F" " '{ print $1}' `
     log_time=`echo $sql_line | awk -F" " '{ print $2}' `
     duration=`echo $sql_line | awk -F" " '{ print $5}' `

     #replace ' to ''
     sql_modline=`echo "$sql_line" | sed 's/'''/''''''/g'`
     sql_line=' '

	 ################
	 #PROCESSING OF THE SQL-SELECT IS HERE
     if ! psql -h ENDPOINT.rds.amazonaws.com -U USER -d DATABASE -v ON_ERROR_STOP=1 -A -t -c "select log_query('$ip_port',$database_id , '$log_date' , '$log_time' , '$duration' , '$sql_modline' )" 
     then
        echo 'FATAL_ERROR - log_query '
        exit 1
     fi
	 ################

    fi #if [[ $sql_flag == '1' ]]; then

    let "line_count=line_count+1"

    check=`echo $line | awk -F" " '{ print $8}' `
    check_sql=${check^^}    

    #echo 'check_sql='$check_sql
    
    if [[ $check_sql == 'SELECT' ]]; then
     sql_flag='1'    
     sql_line="$sql_line$line"
	 ip_port=`echo $sql_line | awk -F":" '{ print $4}' `
    fi
  else       

    if [[ $sql_flag == '1' ]]; then
      sql_line="$sql_line$line"
    fi   
    
  fi #if [[ $current_beginer == $beginer ]]; then

done

Акнун шумо метавонед бо дархосте, ки аз файли сабт интихоб шудааст, кор кунед.

Ва якчанд имкониятҳои муфид кушода мешаванд.

Дархостҳои таҳлилшуда бояд дар ҷое нигоҳ дошта шаванд. Барои ин ҷадвали хидматрасонӣ истифода мешавад log_query

CREATE TABLE log_query
(
   id SERIAL ,
   queryid bigint ,
   query_md5hash text not null ,
   database_id integer not null ,  
   timepoint timestamp without time zone not null,
   duration double precision not null ,
   query text not null ,
   explained_plan text[],
   plan_md5hash text  , 
   explained_plan_wo_costs text[],
   plan_hash_value text  ,
   baseline_id integer ,
   ip text ,
   port text 
);
ALTER TABLE log_query ADD PRIMARY KEY (id);
ALTER TABLE log_query ADD CONSTRAINT queryid_timepoint_unique_key UNIQUE (queryid, timepoint );
ALTER TABLE log_query ADD CONSTRAINT query_md5hash_timepoint_unique_key UNIQUE (query_md5hash, timepoint );

CREATE INDEX log_query_timepoint_idx ON log_query (timepoint);
CREATE INDEX log_query_queryid_idx ON log_query (queryid);
ALTER TABLE log_query ADD CONSTRAINT database_id_fk FOREIGN KEY (database_id) REFERENCES database (id) ON DELETE CASCADE ;

Дархости таҳлилшуда дар plpgsql вазифаҳо"log_query".
log_query.sql

--log_query.sql
--verison HABR
CREATE OR REPLACE FUNCTION log_query( ip_port text ,log_database_id integer , log_date text , log_time text , duration text , sql_line text   ) RETURNS boolean AS $$
DECLARE
  result boolean ;
  log_timepoint timestamp without time zone ;
  log_duration double precision ; 
  pos integer ;
  log_query text ;
  activity_string text ;
  log_md5hash text ;
  log_explain_plan text[] ;
  
  log_planhash text ;
  log_plan_wo_costs text[] ; 
  
  database_rec record ;
  
  pg_stat_query text ; 
  test_log_query text ;
  log_query_rec record;
  found_flag boolean;
  
  pg_stat_history_rec record ;
  port_start integer ;
  port_end integer ;
  client_ip text ;
  client_port text ;
  log_queryid bigint ;
  log_query_text text ;
  pg_stat_query_text text ; 
BEGIN
  result = TRUE ;

  RAISE NOTICE '***log_query';
  
  port_start = position('(' in ip_port);
  port_end = position(')' in ip_port);
  client_ip = substring( ip_port from 1 for port_start-1 );
  client_port = substring( ip_port from port_start+1 for port_end-port_start-1 );

  SELECT e.host , d.name , d.owner_pwd 
  INTO database_rec
  FROM database d JOIN endpoint e ON e.id = d.endpoint_id
  WHERE d.id = log_database_id ;
  
  log_timepoint = to_timestamp(log_date||' '||log_time,'YYYY-MM-DD HH24-MI-SS');
  log_duration = duration:: double precision; 

  
  pos = position ('SELECT' in UPPER(sql_line) );
  log_query = substring( sql_line from pos for LENGTH(sql_line));
  log_query = regexp_replace(log_query,' +',' ','g');
  log_query = regexp_replace(log_query,';+','','g');
  log_query = trim(trailing ' ' from log_query);
 

  log_md5hash = md5( log_query::text );
  
  --Explain execution plan--
  EXECUTE 'SELECT dblink_connect(''LINK1'',''host='||database_rec.host||' dbname='||database_rec.name||' user=DATABASE password='||database_rec.owner_pwd||' '')'; 
  
  log_explain_plan = ARRAY ( SELECT * FROM dblink('LINK1', 'EXPLAIN '||log_query ) AS t (plan text) );
  log_plan_wo_costs = ARRAY ( SELECT * FROM dblink('LINK1', 'EXPLAIN ( COSTS FALSE ) '||log_query ) AS t (plan text) );
    
  PERFORM dblink_disconnect('LINK1');
  --------------------------
  BEGIN
	INSERT INTO log_query
	(
		query_md5hash ,
		database_id , 
		timepoint ,
		duration ,
		query ,
		explained_plan ,
		plan_md5hash , 
		explained_plan_wo_costs , 
		plan_hash_value , 
		ip , 
		port
	) 
	VALUES 
	(
		log_md5hash ,
		log_database_id , 
		log_timepoint , 
		log_duration , 
		log_query ,
		log_explain_plan , 
		md5(log_explain_plan::text) ,
		log_plan_wo_costs , 
		md5(log_plan_wo_costs::text),
		client_ip , 
		client_port		
	);
	activity_string = 	'New query has logged '||
						' database_id = '|| log_database_id ||
						' query_md5hash='||log_md5hash||
						' , timepoint = '||to_char(log_timepoint,'YYYYMMDD HH24:MI:SS');
					
	RAISE NOTICE '%',activity_string;					
					 
	PERFORM pg_log( log_database_id , 'log_query' , activity_string);  

	EXCEPTION
	  WHEN unique_violation THEN
		RAISE NOTICE '*** unique_violation *** query already has logged';
	END;

	SELECT 	queryid
	INTO   	log_queryid
	FROM 	log_query 
	WHERE 	query_md5hash = log_md5hash AND
			timepoint = log_timepoint;

	IF log_queryid IS NOT NULL 
	THEN 
	  RAISE NOTICE 'log_query with query_md5hash = % and timepoint = % has already has a QUERYID = %',log_md5hash,log_timepoint , log_queryid ;
	  RETURN result;
	END IF;
	
	------------------------------------------------
	RAISE NOTICE 'Update queryid';	
	
	SELECT * 
	INTO log_query_rec
	FROM log_query
	WHERE query_md5hash = log_md5hash AND timepoint = log_timepoint ; 
	
	log_query_rec.query=regexp_replace(log_query_rec.query,';+','','g');
	
	FOR pg_stat_history_rec IN
	 SELECT 
         queryid ,
	  query 
	 FROM 
         pg_stat_db_queries 
     WHERE  
      database_id = log_database_id AND
       queryid is not null 
	LOOP
	  pg_stat_query = pg_stat_history_rec.query ; 
	  pg_stat_query=regexp_replace(pg_stat_query,'n+',' ','g');
	  pg_stat_query=regexp_replace(pg_stat_query,'t+',' ','g');
	  pg_stat_query=regexp_replace(pg_stat_query,' +',' ','g');
	  pg_stat_query=regexp_replace(pg_stat_query,'$.','%','g');
	
	  log_query_text = trim(trailing ' ' from log_query_rec.query);
	  pg_stat_query_text = pg_stat_query; 
	
	  
	  --SELECT log_query_rec.query like pg_stat_query INTO found_flag ; 
	  IF (log_query_text LIKE pg_stat_query_text) THEN
		found_flag = TRUE ;
	  ELSE
		found_flag = FALSE ;
	  END IF;	  
	  
	  
	  IF found_flag THEN
	    
		UPDATE log_query SET queryid = pg_stat_history_rec.queryid WHERE query_md5hash = log_md5hash AND timepoint = log_timepoint ;
		activity_string = 	' updated queryid = '||pg_stat_history_rec.queryid||
		                    ' for log_query with id = '||log_query_rec.id               
		   				    ;						
	    RAISE NOTICE '%',activity_string;	
		EXIT ;
	  END IF ;
	  
	END LOOP ;
	
  RETURN result ;
END
$$ LANGUAGE plpgsql;

Ҳангоми коркард ҷадвали хидматрасонӣ истифода мешавад pg_stat_db_queries, дорои акси дархостҳои ҷорӣ аз ҷадвал pg_stat_history (Истифодаи ҷадвал дар ин ҷо тавсиф шудааст - Мониторинги иҷрои дархостҳои PostgreSQL. Қисми 1 - гузоришдиҳӣ)

TABLE pg_stat_db_queries
(
   database_id integer,  
   queryid bigint ,  
   query text , 
   max_time double precision 
);

TABLE pg_stat_history 
(
…
database_id integer ,
…
queryid bigint ,
…
max_time double precision	 , 	
…
);

Функсия ба шумо имкон медиҳад, ки як қатор қобилиятҳои муфидро барои коркарди дархостҳо аз файли журнал амалӣ намоед. Аз ҷумла:

Имконияти №1 - Таърихи иҷрои дархост

Хеле муфид барои оғози ҳалли ҳодисаи иҷрои. Аввалан, бо таърих шинос шавед — сустшавй кай сар шуд?
Сипас, ба гуфтаи классикон, сабабҳои беруниро ҷустуҷӯ кунед. Шояд сарбории пойгоҳи додаҳо якбора зиёд шуда бошад ва дархости мушаххас ба он ҳеҷ иртиботе надорад.
Ба ҷадвали log_query сабти нав илова кунед

  port_start = position('(' in ip_port);
  port_end = position(')' in ip_port);
  client_ip = substring( ip_port from 1 for port_start-1 );
  client_port = substring( ip_port from port_start+1 for port_end-port_start-1 );

  SELECT e.host , d.name , d.owner_pwd 
  INTO database_rec
  FROM database d JOIN endpoint e ON e.id = d.endpoint_id
  WHERE d.id = log_database_id ;
  
  log_timepoint = to_timestamp(log_date||' '||log_time,'YYYY-MM-DD HH24-MI-SS');
  log_duration = to_number(duration,'99999999999999999999D9999999999'); 

  
  pos = position ('SELECT' in UPPER(sql_line) );
  log_query = substring( sql_line from pos for LENGTH(sql_line));
  log_query = regexp_replace(log_query,' +',' ','g');
  log_query = regexp_replace(log_query,';+','','g');
  log_query = trim(trailing ' ' from log_query);
 
  RAISE NOTICE 'log_query=%',log_query ;   

  log_md5hash = md5( log_query::text );
  
  --Explain execution plan--
  EXECUTE 'SELECT dblink_connect(''LINK1'',''host='||database_rec.host||' dbname='||database_rec.name||' user=DATABASE password='||database_rec.owner_pwd||' '')'; 
  
  log_explain_plan = ARRAY ( SELECT * FROM dblink('LINK1', 'EXPLAIN '||log_query ) AS t (plan text) );
  log_plan_wo_costs = ARRAY ( SELECT * FROM dblink('LINK1', 'EXPLAIN ( COSTS FALSE ) '||log_query ) AS t (plan text) );
    
  PERFORM dblink_disconnect('LINK1');
  --------------------------
  BEGIN
	INSERT INTO log_query
	(
		query_md5hash ,
		database_id , 
		timepoint ,
		duration ,
		query ,
		explained_plan ,
		plan_md5hash , 
		explained_plan_wo_costs , 
		plan_hash_value , 
		ip , 
		port
	) 
	VALUES 
	(
		log_md5hash ,
		log_database_id , 
		log_timepoint , 
		log_duration , 
		log_query ,
		log_explain_plan , 
		md5(log_explain_plan::text) ,
		log_plan_wo_costs , 
		md5(log_plan_wo_costs::text),
		client_ip , 
		client_port		
	);

Имконияти №2 - Нақшаҳои иҷрои дархостро захира кунед

Дар ин лаҳза метавонад эътироз-равшан-тафсир ба миён ояд: "Аммо аллакай шарҳи худкор вуҷуд дорад" Бале, он ҷост, аммо агар нақшаи иҷро дар як файли журнал нигоҳ дошта шавад ва барои таҳлили минбаъда захира кардани он, шумо бояд файли журналро таҳлил кунед, чӣ маъно дорад?

Он чизе ки ба ман лозим буд:
аввал: нақшаи иҷроишро дар ҷадвали хидматрасонии базаи мониторинг нигоҳ доред;
дуюм: планхои ичрои супо-ришхоро бо хамдигар мукоиса карда тавонанд, то фавран бубинанд, ки плани ичрои супо-ришхо тагьир ёфтааст.

Дархост бо параметрҳои мушаххаси иҷро вуҷуд дорад. Гирифтан ва захира кардани нақшаи иҷрои он бо истифода аз EXPLAIN як кори одди аст.
Ғайр аз он, бо истифода аз ифодаи EXPLAIN (COSTS FALSE) шумо метавонед скелети нақшаро гиред, ки он барои ба даст овардани арзиши хэшии нақша истифода мешавад, ки барои таҳлили минбаъдаи таърихи тағирот дар нақшаи иҷро кӯмак хоҳад кард.
Шаблони нақшаи иҷроро гиред

  --Explain execution plan--
  EXECUTE 'SELECT dblink_connect(''LINK1'',''host='||database_rec.host||' dbname='||database_rec.name||' user=DATABASE password='||database_rec.owner_pwd||' '')'; 
  
  log_explain_plan = ARRAY ( SELECT * FROM dblink('LINK1', 'EXPLAIN '||log_query ) AS t (plan text) );
  log_plan_wo_costs = ARRAY ( SELECT * FROM dblink('LINK1', 'EXPLAIN ( COSTS FALSE ) '||log_query ) AS t (plan text) );
    
  PERFORM dblink_disconnect('LINK1');

Имконияти №3 - Истифодаи сабти дархост барои мониторинг

Азбаски ченакҳои иҷроиш на дар матни дархост, балки дар ID-и он танзим карда мешаванд, шумо бояд дархостҳоро аз файли гузориш бо дархостҳое, ки ченакҳои иҷроиш танзим шудаанд, пайваст кунед.
Хуб, ҳадди аққал барои он ки вақти дақиқи рух додани як ҳодисаи намоишӣ дошта бошад.

Бо ин роҳ, вақте ки ҳодисаи иҷроиш барои ID дархост рух медиҳад, ба дархости мушаххас бо арзишҳои мушаххаси параметр ва вақти дақиқи иҷро ва давомнокии дархост пайваст мешавад. Ин маълумотро танҳо бо истифода аз намоиш гиред pg_stat_statements - манъ аст.
Рамзи дархости дархостро ёбед ва вурудро дар ҷадвали log_query навсозӣ кунед

SELECT * 
	INTO log_query_rec
	FROM log_query
	WHERE query_md5hash = log_md5hash AND timepoint = log_timepoint ; 
	
	log_query_rec.query=regexp_replace(log_query_rec.query,';+','','g');
	
	FOR pg_stat_history_rec IN
	 SELECT 
      queryid ,
	  query 
	 FROM 
       pg_stat_db_queries 
     WHERE  
	   database_id = log_database_id AND
       queryid is not null 
	LOOP
	  pg_stat_query = pg_stat_history_rec.query ; 
	  pg_stat_query=regexp_replace(pg_stat_query,'n+',' ','g');
	  pg_stat_query=regexp_replace(pg_stat_query,'t+',' ','g');
	  pg_stat_query=regexp_replace(pg_stat_query,' +',' ','g');
	  pg_stat_query=regexp_replace(pg_stat_query,'$.','%','g');
	
	  log_query_text = trim(trailing ' ' from log_query_rec.query);
	  pg_stat_query_text = pg_stat_query; 
	  
	  --SELECT log_query_rec.query like pg_stat_query INTO found_flag ; 
	  IF (log_query_text LIKE pg_stat_query_text) THEN
		found_flag = TRUE ;
	  ELSE
		found_flag = FALSE ;
	  END IF;	  
	  
	  
	  IF found_flag THEN
	    
		UPDATE log_query SET queryid = pg_stat_history_rec.queryid WHERE query_md5hash = log_md5hash AND timepoint = log_timepoint ;
		activity_string = 	' updated queryid = '||pg_stat_history_rec.queryid||
		                    ' for log_query with id = '||log_query_rec.id		                    
		   				    ;						
					
	    RAISE NOTICE '%',activity_string;	
		EXIT ;
	  END IF ;
	  
	END LOOP ;

Пас аз он

Технологияи тавсифшуда дар ниҳоят татбиқ ёфт системаи таҳияшудаи мониторинги иҷрои дархостҳои PostgreSQL, ба шумо имкон медиҳад, ки маълумоти бештаре дошта бошед, то ҳангоми ҳалли ҳодисаҳои пайдоиши иҷрои дархостҳо таҳлил кунед.

Ҳарчанд, албатта, ба назари шахсии ман, дар алгоритми интихоб ва тағир додани андозаи қисми зеркашидашуда бештар кор кардан лозим меояд. Дар сурати умумй масъала хануз хал нашудааст. Эҳтимол ҷолиб хоҳад буд.

Аммо ин як ҳикояи тамоман дигар аст...

Манбаъ: will.com

Илова Эзоҳ