GoGPT Best VPN GoSearch

icono de página de OnWorks

pgbadgerp - Online en la nube

Ejecute pgbadgerp en el proveedor de alojamiento gratuito de OnWorks sobre Ubuntu Online, Fedora Online, emulador en línea de Windows o emulador en línea de MAC OS

Este es el comando pgbadgerp que se puede ejecutar en el proveedor de alojamiento gratuito de OnWorks utilizando una de nuestras múltiples estaciones de trabajo en línea gratuitas, como Ubuntu Online, Fedora Online, emulador en línea de Windows o emulador en línea de MAC OS.

PROGRAMA:

NOMBRE


pgBadger: un informe rápido de análisis de registros de PostgreSQL

SINOPSIS


Uso: pgbadger [opciones] logfile [...]

Analizador de registros PostgreSQL con informes y gráficos completamente detallados.

Argumentos:

archivo de registro puede ser un archivo de registro único, una lista de archivos o un comando de shell
devolviendo una lista de archivos. Si desea pasar el contenido del registro desde stdin
use - como nombre de archivo. Tenga en cuenta que la entrada de stdin no funcionará con csvlog.
También puede utilizar un archivo que contenga una lista de archivos de registro para analizar, consulte -L
opción de línea de comando.

Opciones:

-a | - minutos promedio: número de minutos para construir los gráficos promedio de
consultas y conexiones. Por defecto 5 minutos.
-A | --histo-avg minutes: número de minutos para construir los gráficos de histograma
de consultas. Por defecto 60 minutos.
-b | --begin datetime: fecha / hora de inicio para que los datos se analicen en el registro.
-B | --bar-graph: utiliza un gráfico de barras en lugar de una línea de forma predeterminada.
-c | --dbclient host: solo informa sobre las entradas para el host del cliente dado.
-C | --nocomment: elimina comentarios como / * ... * / de las consultas.
-d | --dbname database: solo informa sobre las entradas de la base de datos dada.
-D | --dns-resolv: las direcciones IP del cliente se reemplazan por su nombre DNS.
Tenga en cuenta que esto realmente puede ralentizar pgBadger.
-e | --end datetime: fecha / hora de finalización para que los datos se analicen en el registro.
-f | --format logtype: valores posibles: syslog, syslog2, stderr y csv.
Por defecto: stderr.
-G | --nograph: deshabilita los gráficos en la salida HTML. Habilitado por defecto.
-h | --help: muestra este mensaje y sale.
-i | --ident name: nombre del programa utilizado como syslog ident. Predeterminado: postgres
-I | --incremental: use el modo incremental, los informes serán generados por
días en un directorio separado, se debe establecer --outdir.
-j | --número de trabajos: número de trabajos que se ejecutarán al mismo tiempo. El valor predeterminado es 1,
ejecutar como un solo proceso.
-J | --Número de trabajos: número de archivo de registro para analizar en paralelo. Defecto
es 1, se ejecuta como proceso único.
-l | - último archivo analizado: permite el análisis de registros incremental registrando el
última fecha y hora y línea analizada. Útil si quieres
para ver los errores desde la última ejecución o si quieres uno
informe por día con un registro rotado cada semana.
-L | archivo de lista de archivos de registro: archivo que contiene una lista de archivos de registro para analizar.
-m | --maxlength size: longitud máxima de una consulta, estará restringida a
el tamaño dado. Predeterminado: no truncar
-M | --no-multiline: no recopile una declaración de varias líneas para evitar la basura
especialmente en los errores que generan un informe enorme.
-n | --nohighlight: deshabilita el resaltado de código SQL.
-N | - nombre de la aplicación: solo informa sobre las entradas para el nombre de la aplicación dada
-o | --outfile filename: define el nombre de archivo para la salida. El valor predeterminado depende
en el formato de salida: out.html, out.txt, out.bin,
out.json o out.tsung.
Con el módulo JSON :: XS instalado, puede generar un archivo
en formato JSON tampoco.
Para volcar la salida a la salida estándar, use - como nombre de archivo.
-O | --outdir path: directorio donde se debe guardar el archivo.
-p | --prefix string: el valor de su log_line_prefix personalizado como
definido en su postgresql.conf. Úselo solo si
no están usando uno de los prefijos estándar especificados
en la documentación de pgBadger, como si su
el prefijo incluye variables adicionales como la ip del cliente
o nombre de la aplicación. Vea los ejemplos a continuación.
-P | --no-prettify: deshabilita las consultas SQL embellece el formateador.
-q | --quiet: no imprima nada en stdout, ni siquiera un progreso
bar.
-r | --remote-host ip: establece el host donde ejecutar el comando cat en
archivo de registro remoto para analizar localmente el archivo.
-R | --retención N: número de semanas que se mantendrá en modo incremental. Defecto
a 0, deshabilitado. Se utiliza para establecer el número de weel a
mantener en el directorio de salida. Semanas y días más viejos
directorio se eliminan automáticamente.
-s | --sample number: número de muestras de consulta para almacenar. Predeterminado: 3.
-S | --select-only: solo reporta consultas SELECT.
-t | --número superior: número de consultas para almacenar / mostrar. Predeterminado: 20.
-T | --title string: cambia el título del informe de la página HTML.
-u | --dbuser username: solo informa sobre las entradas del usuario dado.
-U | --exclude-user username: excluye las entradas del usuario especificado de
.
-v | --verbose: habilita el modo detallado o de depuración. Desactivado por defecto.
-V | --version: muestra la versión de pgBadger y sale.
-w | --watch-mode: solo reporta errores como lo haría logwatch.
-x | --extensión: formato de salida. Valores: texto, html, bin, json o
tsung. Predeterminado: html
-X | --extra-files: en modo incremetal, permite que pgbadger escriba CSS y
JS en el directorio de salida como archivos separados.
-z | --zcat exec_path: establece la ruta completa al programa zcat. Úselo si
zcat o bzcat o unzip no está en su camino.
--pie-limit num: los datos circulares inferiores a num% mostrarán una suma en su lugar.
--exclude-query regex: se excluirá cualquier consulta que coincida con la expresión regular dada
del informe. Por ejemplo: "^ (VACÍO | COMPROMISO)"
Puede utilizar esta opción varias veces.
--exclude-file filename: ruta del archivo que contiene todas las expresiones regulares para
utilícelo para excluir consultas del informe. Una expresión regular
por línea.
--include-query regex: cualquier consulta que no coincida con la expresión regular dada lo hará
ser excluido del informe. Puedes usar esto
opción varias veces. Por ejemplo: "(tbl1 | tbl2)".
--include-file filename: ruta del archivo que contiene todas las expresiones regulares de
las consultas que se incluirán en el informe. Una expresión regular
por línea.
--disable-error: no genera informe de error.
--disable-hourly: no genera un informe por horas.
--disable-type: no genera informe de consultas por tipo, base de datos
o usuario.
--disable-query: no genera informes de consulta (más lento, más
frecuentes, consultas de los usuarios, por base de datos, ...).
--disable-session: no genera informe de sesión.
--disable-connection: no genera informe de conexión.
--disable-lock: no genera informe de bloqueo.
--disable -mporary: no genera un informe temporal.
--disable-checkpoint: no genera un informe de punto de control / punto de reinicio.
--disable-autovacuum: no genera informe de autovacío.
--charset: se utiliza para configurar el juego de caracteres HTML que se utilizará.
Predeterminado: utf-8.
--csv-separator: se utiliza para establecer el separador de campo CSV, predeterminado:,
--exclude-time regex: cualquier marca de tiempo que coincida con la expresión regular dada será
excluido del informe. Ejemplo: "2013-04-12. *"
Puede utilizar esta opción varias veces.
--exclude-appname name: excluye entradas para el nombre de aplicación especificado
del informe. Ejemplo: "pg_dump".
--exclude-line regex: pgbadger comenzará a excluir cualquier entrada de registro que
coincidirá con la expresión regular dada. Se puede utilizar múltiples
en las transacciones.
--anonimizar: ocultar todos los literales en las consultas, útil para ocultar
información confidencial.
--noreport: evita que pgbadger cree informes en incrementos
modo.
--log-duration: fuerza a pgbadger a asociar las entradas de registro generadas
por log_duration = on y log_statement = 'all'
--enable-checksum: se usa para agregar una suma md5 debajo de cada informe de consulta.

pgBadger puede analizar un archivo de registro remoto utilizando una conexión ssh sin contraseña. Utilizar el
-ro --remote-host para configurar la dirección IP o el nombre de host del host. También hay algunos
opciones para controlar completamente la conexión ssh.

--ssh-program ssh ruta al programa ssh que se utilizará. Predeterminado: ssh.
--ssh-usuario nombre de inicio de sesión de conexión de nombre de usuario. Predeterminado para el usuario en ejecución.
--ssh-ruta del archivo de identidad al archivo de identidad que se utilizará.
--ssh-timeout segundo tiempo de espera para falla de conexión ssh. Por defecto 10 segundos.
--ssh-options options lista de opciones -o que se utilizarán para la conexión ssh.
Opciones siempre utilizadas:
-o ConnectTimeout = $ ssh_timeout
-o PreferredAuthentications = basado en host, clave pública

Ejemplos:

pgbadger /var/log/postgresql.log
pgbadger /var/log/postgres.log.2.gz /var/log/postgres.log.1.gz
/var/log/postgres.log
pgbadger / var / log / postgresql / postgresql-2012-05- *
pgbadger --exclude-query = "^ (COPY | COMMIT)" /var/log/postgresql.log
pgbadger -b "2012-06-25 10:56:11" -e "2012-06-25 10:59:11"
/var/log/postgresql.log
gato /var/log/postgres.log | pgbadger -
# Prefijo de registro con salida de registro stderr
perl pgbadger --prefijo '% t [% p]: [% l-1] usuario =% u, db =% d, aplicación =% a, cliente =% h'
/ pglog / postgresql-2012-08-21 *
perl pgbadger --prefijo '% m% u @% d% p% r% a:' /pglog/postgresql.log
# Prefijo de línea de registro con salida de registro syslog
perl pgbadger --prefijo 'usuario =% u, db =% d, cliente =% h, aplicación =% a'
/ pglog / postgresql-2012-08-21 *
# Use mis 8 CPU para analizar mi archivo de 10 GB más rápido, mucho más rápido
perl pgbadger -j 8 /pglog/postgresql-9.1-main.log

Genere un archivo XML de sesiones de Tsung solo con consultas seleccionadas:

perl pgbadger -S -o sesiones.tsung --prefijo '% t [% p]: [% l-1] usuario =% u, db =% d' /pglog/postgresql-9.1.log

Informar errores cada semana por trabajo cron:

30 23 * * 1 / usr / bin / pgbadger -q -w /var/log/postgresql.log -o /var/reports/pg_errors.html

Genere un informe cada semana usando comportamiento incremental:

0 4 * * 1 / usr / bin / pgbadger -q `buscar / var / log / -mtime -7 -name "postgresql.log *" `
-o / var / reports / pg_errors-`date +% F`.html -l /var/reports/pgbadger_incremental_file.dat

Esto supone que su archivo de registro y su informe HTML también se rotan cada semana.

O mejor, utilice los informes incrementales generados automáticamente:

0 4 * * * / usr / bin / pgbadger -I -q /var/log/postgresql/postgresql.log.1
-O / var / www / pg_reports /

generará un informe por día y por semana.

En el modo incremental, también puede especificar el número de semanas que se mantendrán en los informes:

/ usr / bin / pgbadger --retention 2 -I -q /var/log/postgresql/postgresql.log.1
-O / var / www / pg_reports /

Si tiene un pg_dump a las 23:00 y 13:00 todos los días durante media hora, puede usar
pgbadger de la siguiente manera para excluir estos períodos del informe:

pgbadger --excluir-tiempo "2013-09 -. * (23 | 13):. *" postgresql.log

Esto ayudará a evitar tener declaraciones COPY, generadas por pg_dump, en la parte superior de la lista
de consultas más lentas. También puede utilizar --exclude-appname "pg_dump" para resolver este problema en
una forma más sencilla.

DESCRIPCIÓN


pgBadger es una compilación de analizador de registros de PostgreSQL para mayor velocidad con informes completamente detallados de
su archivo de registro de PostgreSQL. Es un script de Perl único y pequeño que supera a cualquier otro
Analizador de registros PostgreSQL.

Está escrito en lenguaje Perl puro y usa una biblioteca javascript (flotr2) para dibujar gráficos.
para que no necesite instalar ningún módulo Perl adicional u otros paquetes.
Además, esta biblioteca nos brinda más funciones como hacer zoom. pgBadger también usa el
Bootstrap biblioteca javascript y la fuente web FontAwesome para un mejor diseño. Todo es
incorporado.

pgBadger puede detectar automáticamente el formato de archivo de registro (syslog, stderr o csvlog). Está
diseñado para analizar archivos de registro de gran tamaño, así como archivos comprimidos gzip. Ver una lista completa de
características a continuación. Los formatos comprimidos admitidos son gzip, bzip2 y xz. Para el ultimo tu
debe tener una versión xz superior a 5.05 que admita la opción --robot.

Todos los gráficos se pueden ampliar y se pueden guardar como imágenes PNG.

También puede limitar pgBadger para informar solo errores o eliminar cualquier parte del informe utilizando
opciones de la línea de comandos.

pgBadger admite cualquier formato personalizado establecido en la directiva log_line_prefix de su
postgresql.conf siempre que al menos especifique los patrones% ty% p.

pgBadger permite el procesamiento paralelo en un solo archivo de registro y varios archivos mediante el uso
de la opción -j y el número de CPU como valor.

Si desea ahorrar el rendimiento del sistema, también puede usar log_duration en lugar de
log_min_duration_statement para tener informes sobre la duración y el número de consultas únicamente.

DESTAQUE


pgBadger informa todo sobre sus consultas SQL:

Estadísticas generales
Las consultas en espera más frecuentes.
Consultas que más esperaron.
Consultas que generan la mayoría de archivos temporales.
Consultas que generan los archivos temporales más grandes.
Las consultas más lentas.
Consultas que ocuparon más tiempo.
Las consultas más frecuentes.
Los errores más frecuentes.
Histograma de tiempos de consulta.
Histograma de tiempos de sesiones.
Usuarios involucrados en consultas principales.
Aplicaciones involucradas en las principales consultas.
Consultas que generan la mayor cantidad de cancelaciones.
Consultas más canceladas.

Los siguientes informes también están disponibles con gráficos horarios divididos por períodos de cinco
minutos:

Estadísticas de consultas SQL.
Estadísticas de archivos temporales.
Estadísticas de puntos de control.
Estadísticas de autovacío y autoanálisis.
Consultas canceladas.
Eventos de error (pánico, fatal, error y advertencia).

También hay algunos informes circulares de distribución sobre:

Bloquea las estadísticas.
Consultas por tipo (seleccionar / insertar / actualizar / eliminar).
Distribución del tipo de consultas por base de datos / aplicación
Sesiones por base de datos / usuario / cliente / aplicación.
Conexiones por base de datos / usuario / cliente / aplicación.
Autovacío y autoanalizar por mesa.
Consultas por usuario y duración total por usuario.

Todos los gráficos se pueden ampliar y se pueden guardar como imágenes PNG. Las consultas SQL informadas son
resaltado y embellecido automáticamente.

También puede tener informes incrementales con un informe por día y un informe acumulativo por
semana. Hay dos modos de multiproceso disponibles para acelerar el análisis de registros, uno con un núcleo por
log, y el segundo en usar múltiples núcleos para analizar un solo archivo. Ambos modos pueden ser
integrar bien.

La granularidad del histograma se puede ajustar mediante la opción de línea de comandos -A. Por defecto ellos
informará la media de cada una de las principales consultas / errores que se produzcan por hora, pero puede especificar el
granularidad hasta el minuto.

pgBadger también se puede usar en un lugar central para analizar archivos de registro remotos usando una contraseña
menos conexión SSH. Este modo se puede utilizar con archivos comprimidos y en modo multiproceso
por archivo (-J) pero no se puede utilizar con el formato de registro CSV.

REQUISITO


pgBadger viene como un único script de Perl; no necesita nada más que un Perl moderno
distribución. Los gráficos se representan utilizando una biblioteca de Javascript, por lo que no necesita nada.
Su navegador hará todo el trabajo.

Si planeaba analizar archivos de registro CSV de PostgreSQL, es posible que necesite algunos módulos Perl:

Text :: CSV_XS - para analizar archivos de registro CSV de PostgreSQL.

Este módulo es opcional, si no tiene un registro de PostgreSQL en formato CSV, no lo necesita
para instalarlo

Si desea exportar estadísticas como archivo JSON, necesita un módulo Perl adicional:

JSON :: XS: serialización / deserialización de JSON, realizada de forma correcta y rápida

Este módulo es opcional, si no selecciona el formato de salida json, no necesita
instalarlo.

El formato del archivo de registro comprimido se detecta automáticamente a partir de la extensión del archivo. Si pgBadger encuentra un gz
extensión usará la utilidad zcat, con una extensión bz2 usará bzcat y si el
La extensión del archivo es zip o xz, entonces se usarán las utilidades unzip o xz.

Si esas utilidades no se encuentran en la variable de entorno PATH, use la opción --zcat
opción de línea de comando para cambiar esta ruta. Por ejemplo:

--zcat = "/ usr / local / bin / gunzip -c" o --zcat = "/ usr / local / bin / bzip2 -dc"
--zcat = "C: \ herramientas \ unzip -p"

Por defecto, pgBadger usará las utilidades zcat, bzcat y unzip siguiendo el archivo
extensión. Si usa el formato de compresión de detección automática predeterminado, puede mezclar gz, bz2, xz
o archivos zip. Especificar un valor personalizado para la opción --zcat eliminará esta característica de mezcla
formato comprimido.

Tenga en cuenta que el multiprocesamiento no se puede utilizar con archivos comprimidos o archivos CSV, así como
bajo la plataforma Windows.

INSTALACIÓN


Descargue el tarball de github y descomprima el archivo de la siguiente manera:

tar xzf pgbadger-7.x.tar.gz
cd pgbadger-7.x /
Perl Makefile.PL
make && sudo make install

Esto copiará el script de Perl pgbadger a / usr / local / bin / pgbadger por defecto y el man
página en /usr/local/share/man/man1/pgbadger.1. Esas son la instalación predeterminada.
directorios para la instalación del 'sitio'.

Si desea instalar todo bajo / usr / ubicación, use INSTALLDIRS = 'perl' como argumento de
Makefile.PL. El script se instalará en / usr / bin / pgbadger y la página de manual en
/usr/share/man/man1/pgbadger.1.

Por ejemplo, para instalar todo como lo hace Debian, proceda de la siguiente manera:

perl Makefile.PL INSTALLDIRS = proveedor

De forma predeterminada, INSTALLDIRS está configurado en sitio.

POSTGRESQL CONFIGURACIÓN


Debe habilitar y establecer algunas directivas de configuración en su postgresql.conf antes
comenzando.

Primero debe habilitar el registro de consultas SQL para tener algo que analizar:

log_min_duration_statement = 0

Aquí se registrará cada declaración, en el servidor ocupado es posible que desee aumentar este valor a
solo registra consultas con un tiempo de duración mayor. Tenga en cuenta que si tiene log_statement establecido en
'todo' nada se registrará a través de la directiva log_min_duration_statement. Ver siguiente
capítulo para obtener más información.

Con el formato de registro 'stderr', log_line_prefix debe ser al menos:

log_line_prefix = '% t [% p]: [% l-1]'

El prefijo de la línea de registro puede agregar usuario, nombre de la base de datos, nombre de la aplicación y dirección IP del cliente como
manera:

log_line_prefix = '% t [% p]: [% l-1] usuario =% u, db =% d, aplicación =% a, cliente =% h'

o para el formato de archivo de registro de syslog:

log_line_prefix = 'usuario =% u, db =% d, app =% aclient =% h'

El prefijo de línea de registro para la salida stderr también podría ser:

log_line_prefix = '% t [% p]: [% l-1] db =% d, usuario =% u, aplicación =% a, cliente =% h'

o para la salida de syslog:

log_line_prefix = 'db =% d, usuario =% u, aplicación =% a, cliente =% h'

Necesita habilitar otros parámetros en postgresql.conf para obtener más información de su
archivos de registro:

log_checkpoints = activado
log_connections = encendido
log_disconnections = encendido
log_lock_waits = encendido
registro_temp_archivos = 0
log_autovacuum_min_duración = 0

No habilite log_statement ya que pgBadger no analizará su formato de registro.

Por supuesto, sus mensajes de registro deben estar en inglés sin soporte de configuración regional:

lc_messages = 'C'

pero esto no solo lo recomienda pgBadger.

Nota: la línea de sesión [% l-1] solo se usa para hacer coincidir el prefijo predeterminado para "stderr". los
-1 no tiene un propósito real y básicamente no se usa en estadísticas / gráficos de Pgbadger. Usted puede
los eliminó de forma segura del prefijo log_line_prefix, pero deberá configurar el comando --prefix
opción de línea.

log_min_duration_statement, duración_registro y declaración_de_registro


Si desea informes de estadísticas completos, debe establecer log_min_duration_statement en 0 o más
milisegundos.

Si solo desea informar la duración y el número de consultas y no desea todos los detalles sobre
consultas, establezca log_min_duration_statement en -1 para deshabilitarlo y habilitar log_duration en
su archivo postgresql.conf. Si desea agregar el informe de solicitud más común, puede
elija establecer log_min_duration_statement en un valor más alto o elija habilitar
declaración_de_registro.

Habilitar log_min_duration_statement agregará informes sobre las consultas más lentas y las consultas
que tomó la mayor parte del tiempo. Tenga cuidado de que si tiene log_statement establecido en 'all' nothing
se registrará con log_line_prefix.

PARALELA Tratamiento


Para habilitar el procesamiento paralelo solo tiene que usar la opción -j N donde N es el número
de núcleos que desea utilizar.

pgbadger procederá de la siguiente manera:

para cada archivo de registro
tamaño de fragmento = int (tamaño de archivo / N)
mire las compensaciones de inicio / final de estos trozos
bifurque N procesos y busque el desplazamiento inicial de cada fragmento
cada proceso terminará cuando el analizador alcance el desplazamiento final
de su trozo
cada proceso escribe estadísticas en un archivo temporal binario
esperar a que todos los niños hayan terminado
Todos los archivos temporales binarios generados se leerán y cargarán en
memoria para construir la salida html.

Con ese método, al inicio / final de los fragmentos, pgbadger puede truncar u omitir un máximo de N
consulta el archivo de registro de Perl, que es una brecha insignificante si tiene millones de consultas en
su archivo de registro. La probabilidad de que la consulta que estaba buscando sea suelta es cercana a 0,
por eso creo que esta brecha es habitable. La mayoría de las veces, la consulta se cuenta dos veces, pero
truncado.

Cuando tiene muchos archivos de registro pequeños y muchas CPU, es más rápido dedicar un núcleo
a un archivo de registro a la vez. Para habilitar este comportamiento, debe usar la opción -JN en su lugar.
Con 200 archivos de registro de 10 MB cada uno, el uso de la opción -J comienza a ser realmente interesante
con 8 núcleos. Con este método, se asegurará de no perder ninguna consulta en los informes.

Es un benchmarck realizado en un servidor con 8 CPU y un solo archivo de 9.5GB.

Opción | 1 CPU | 2 CPU | 4 CPU | 8 CPU
-------- + --------- + ------- + ------- + ------
-j | 1h41m18 | 50m25 | 25m39 | 15 min 58
-J | 1h41m18 | 54m28 | 41m16 | 34 min 45

Con 200 archivos de registro de 10 MB cada uno y un total de 2 GB, los resultados son ligeramente diferentes:

Opción | 1 CPU | 2 CPU | 4 CPU | 8 CPU
-------- + ------- + ------- + ------- + ------
-j | 20m15 | 9m56 | 5m20 | 4 min 20
-J | 20m15 | 9m49 | 5m00 | 2 min 40

Por lo tanto, se recomienda usar -j a menos que tenga cientos de archivos de registro pequeños y pueda usar en
al menos 8 CPU.

IMPORTANTE: cuando utiliza el análisis en paralelo, pgbadger generará una gran cantidad de
archivos en el / Tmp directorio y los eliminará al final, así que no elimine esos archivos
a menos que pgbadger no se esté ejecutando. Todos se nombran con la siguiente plantilla
tmp_pgbadgerXXXX.bin para que se puedan identificar fácilmente.

INCREMENTALES REPORTAJES


pgBadger incluye un modo de informe incremental automático usando la opción -I o --incremental.
Cuando se ejecuta en este modo, pgBadger generará un informe por día y un
informe por semana. La salida se realiza primero en formato binario en el directorio de salida obligatorio
(vea la opción -O o --outdir), luego en formato HTML para informes diarios y semanales con un
archivo de índice.

El archivo de índice principal mostrará un menú desplegable por semana con un enlace al informe de la semana y
enlaces a informes diarios de esta semana.

Por ejemplo, si ejecuta pgBadger de la siguiente manera en función de un archivo rotado diariamente:

0 4 * * * / usr / bin / pgbadger -I -q /var/log/postgresql/postgresql.log.1 \
-O / var / www / pg_reports /

tendrá todos los informes diarios y semanales para el período de ejecución completo.

En este modo, pgBagder creará un archivo incremental automático en el directorio de salida,
por lo que no tiene que usar la opción -l a menos que desee cambiar la ruta de ese archivo.
Esto significa que puede ejecutar pgBadger en este modo cada día en un archivo de registro rotado cada
semana, no contará las entradas del registro dos veces.

Para ahorrar espacio en disco, es posible que desee utilizar la opción de línea de comandos -X o --extra-files para
forzar a pgBadger a escribir javascript y css para separar archivos en el directorio de salida. los
Luego, los recursos se cargarán mediante el script y la etiqueta de enlace.

BINARIO FORMATO


Usando el formato binario es posible crear incrementales y acumulativos personalizados
informes. Por ejemplo, si desea actualizar un informe pgbadger cada hora desde un diario
Archivo de registro de PostgreSQl, puede continuar ejecutando cada hora los siguientes comandos:

pgbadger --last-parsed .pgbadger_last_state_file -o sunday / hourX.bin /var/log/pgsql/postgresql-Sun.log

para generar los archivos de datos incrementales en formato binario. Y para generar el HTML nuevo
informe de ese archivo binario:

pgbadger domingo / *. bin

O en otro ejemplo, si tiene un archivo de registro por hora y desea que los informes sean
reconstruir cada vez que se cambia el archivo de registro. Proceda de la siguiente manera:

pgbadger -o día1 / hora01.bin /var/log/pgsql/pglog/postgresql-2012-03-23_10.log
pgbadger -o día1 / hora02.bin /var/log/pgsql/pglog/postgresql-2012-03-23_11.log
pgbadger -o día1 / hora03.bin /var/log/pgsql/pglog/postgresql-2012-03-23_12.log
...

Cuando desee actualizar el informe HTML, por ejemplo, cada vez que se genere un nuevo archivo binario.
generado, simplemente haga lo siguiente:

pgbadger -o day1_report.html day1 / *. bin

Ajuste los comandos según sus necesidades.

JSON FORMATO


El formato JSON es bueno para compartir datos con otros idiomas, lo que facilita
integre el resultado de pgBadger en otras herramientas de monitoreo como Cacti o Graphite.

AUTORES


pgBadger es un trabajo original de Gilles Darold.

El logotipo de pgBadger es una creación original de Damien Clochard.

El diseño de pgBadger v4.x proviene de la empresa "Art is code".

Este sitio web es obra de Gilles Darold.

pgBadger es mantenido por Gilles Darold, la buena gente de Dalibo y todos los que quieran
contribuir.

Muchas personas han contribuido a pgBadger, todas están citadas en el archivo Changelog.

Use pgbadgerp en línea usando los servicios de onworks.net


Servidores y estaciones de trabajo gratuitos

Descargar aplicaciones de Windows y Linux

Comandos de Linux

Ad




×
Anuncio
❤ ️Compre, reserve o adquiera aquí: sin costo, ayuda a mantener los servicios gratuitos.