GoGPT Best VPN GoSearch

icono de página de OnWorks

alt-nvidia-361-smi: en línea en la nube

Ejecute alt-nvidia-361-smi en el proveedor de alojamiento gratuito de OnWorks a través de Ubuntu Online, Fedora Online, emulador en línea de Windows o emulador en línea de MAC OS

Este es el comando alt-nvidia-361-smi que se puede ejecutar en el proveedor de alojamiento gratuito de OnWorks utilizando una de nuestras múltiples estaciones de trabajo en línea gratuitas, como Ubuntu Online, Fedora Online, emulador en línea de Windows o emulador en línea de MAC OS.

PROGRAMA:

NOMBRE


nvidia-smi: programa de interfaz de gestión del sistema NVIDIA

SINOPSIS


nvidia-smi [OPCIÓN1 [ARG1]] [OPCIÓN2 [ARG2]] ...

DESCRIPCIÓN


nvidia-smi (también NVSMI) proporciona capacidades de supervisión y gestión para cada uno de
Dispositivos NVIDIA Tesla, Quadro, GRID y GeForce de Fermi y arquitectura superior
familias. Los dispositivos de la serie GeForce Titan son compatibles con la mayoría de las funciones con muy
información proporcionada para el resto de la marca Geforce. NVSMI es una plataforma cruzada
herramienta que admite todas las distribuciones de Linux compatibles con el controlador NVIDIA estándar, así como 64 bits
versiones de Windows a partir de Windows Server 2008 R2. Las métricas se pueden consumir
directamente por los usuarios a través de stdout, o proporcionado por archivo a través de formatos CSV y XML para secuencias de comandos
propósitos.

Tenga en cuenta que gran parte de la funcionalidad de NVSMI la proporciona el NVML subyacente basado en C
Biblioteca. Consulte el enlace del sitio web para desarrolladores de NVIDIA a continuación para obtener más información sobre NVML.
También están disponibles enlaces de Python basados ​​en NVML.

No se garantiza que la salida de NVSMI sea compatible con versiones anteriores. Sin embargo, tanto NVML como
los enlaces de Python son compatibles con versiones anteriores y deberían ser la primera opción al escribir
cualquier herramienta que deba mantenerse en todas las versiones del controlador NVIDIA.

NVML SDK: http://developer.nvidia.com/nvidia-management-library-nvml/

Python fijaciones: http://pypi.python.org/pypi/nvidia-ml-py/

OPCIONES


GENERAL OPCIONES
-h, --ayuda
Imprima la información de uso y salga.

RESUMEN OPCIONES
-l, --lista-gpus
Enumere cada una de las GPU NVIDIA en el sistema, junto con sus UUID.

CONSULTA OPCIONES
-q, --consulta
Muestra la información de la unidad o GPU. La información mostrada incluye todos los datos enumerados en el (GPU ATRIBUTOS)
o (UNIDAD ATRIBUTOS) secciones de este documento. Algunos dispositivos y / o entornos no
Apoyar toda la información posible. Cualquier dato no admitido se indica con un "N / A" en el
producción. De forma predeterminada, se muestra la información de todas las unidades o GPU disponibles. Utilizar el -i
opción para restringir la salida a una sola GPU o Unidad.

[más Opcional]
-tu, --unidad
Muestra los datos de la unidad en lugar de los datos de la GPU. Los datos de la unidad solo están disponibles para NVIDIA S-class
Recintos de Tesla.

-I, --id = ID
Muestra datos para una sola unidad o GPU especificada. La identificación especificada puede ser la GPU / Unidad
Índice basado en 0 en la enumeración natural devuelta por el controlador, serie de la placa de la GPU
número, UUID de la GPU o ID del bus PCI de la GPU (como dominio: bus: función del dispositivo en hexadecimal).
Se recomienda que los usuarios que deseen coherencia utilicen UUID o ID de bus PCI, ya que
No se garantiza que el orden de enumeración de dispositivos sea coherente entre los reinicios y la placa.
El número de serie se puede compartir entre varias GPU en la misma placa.

-f EXPEDIENTE, --filename = ARCHIVO
Redirigir la salida de la consulta al archivo especificado en lugar de la salida estándar predeterminada. El especificado
se sobrescribirá el archivo.

-X, - formato xml
Genere una salida XML en lugar del formato legible por humanos predeterminado. Consulta tanto de GPU como de unidad
las salidas se ajustan a los DTD correspondientes. Estos están disponibles a través de --dtd bandera.

--dtd
Usar con -x. Incruste el DTD en la salida XML.

--debug = ARCHIVO
Produce un registro de depuración cifrado para usar en el envío de errores a NVIDIA.

-d TIPO, --display = TIPO
Mostrar solo la información seleccionada: MEMORIA, UTILIZACIÓN, ECC, TEMPERATURA, POTENCIA, RELOJ,
COMPUTE, PIDS, PERFORMANCE, SUPPORTED_CLOCKS, PAGE_RETIREMENT, CONTABILIDAD Las banderas pueden ser
combinado con una coma, por ejemplo, "MEMORIA, ECC". Los datos de muestreo con max, min y avg también son
devuelto para los tipos de visualización POWER, UTILIZATION y CLOCK. No funciona con la unidad -u / - o
-x / - indicadores de formato xml.

-l SEGUNDO, --loop = SEC
Informar continuamente los datos de la consulta en el intervalo especificado, en lugar del valor predeterminado de solo
una vez. La aplicación dormirá entre consultas. Tenga en cuenta que en Linux ECC error o XID
Los eventos de error se imprimirán durante el período de suspensión si el -x no se especificó la bandera.
Presionar Ctrl + C en cualquier momento abortará el ciclo, que de lo contrario se ejecutará indefinidamente.
Si no se especifica ningún argumento para el -l se utiliza un intervalo predeterminado de 5 segundos.

SELECTIVO CONSULTA OPCIONES
Permite a la persona que llama pasar una lista explícita de propiedades para consultar.

[uno de]
--query-gpu =
Información sobre GPU. Pase una lista separada por comas de las propiedades que desea consultar. p.ej
--query-gpu = pci.bus_id, persistence_mode. Llame a --help-query-gpu para obtener más información.

--query-supported-clocks =
Lista de relojes compatibles. Llame a --help-query-supported-clocks para obtener más información.

--query-compute-apps =
Lista de procesos de cálculo actualmente activos. Llame a --help-query-compute-apps para obtener más información.

--query-accountted-apps =
Lista de procesos de cómputo contabilizados. Llame a --help-query-accountted-apps para obtener más información.

--query-retired-pages =
Lista de páginas de memoria del dispositivo GPU que se han retirado. Llame a --help-query-retired-pages
para más información.

[obligatorio]
--format =
Lista separada por comas de opciones de formato:

· Csv - valores separados por comas (OBLIGATORIO)

· Noheader: omite la primera línea con los encabezados de columna

· Sustantivos: no imprima unidades para valores numéricos

[más cualquier de]
-I, --id = ID
Muestra datos para una sola GPU especificada. La identificación especificada puede ser el índice basado en 0 de la GPU
en la enumeración natural devuelta por el controlador, el número de serie de la placa de la GPU, el
UUID de la GPU, o la ID del bus PCI de la GPU (como dominio: bus: función del dispositivo en hexadecimal). Está
recomendó que los usuarios que deseen coherencia utilicen UUID o ID de bus PCI, ya que el dispositivo
No se garantiza que el orden de enumeración sea coherente entre los reinicios y el número de serie de la placa.
El número puede compartirse entre varias GPU en la misma placa.

-f EXPEDIENTE, --filename = ARCHIVO
Redirigir la salida de la consulta al archivo especificado en lugar de la salida estándar predeterminada. El especificado
se sobrescribirá el archivo.

-l SEGUNDO, --loop = SEC
Informar continuamente los datos de la consulta en el intervalo especificado, en lugar del valor predeterminado de solo
una vez. La aplicación dormirá entre consultas. Tenga en cuenta que en Linux ECC error o XID
Los eventos de error se imprimirán durante el período de suspensión si el -x no se especificó la bandera.
Presionar Ctrl + C en cualquier momento abortará el ciclo, que de lo contrario se ejecutará indefinidamente.
Si no se especifica ningún argumento para el -l se utiliza un intervalo predeterminado de 5 segundos.

-películas ms, --loop-ms = ms
Igual que -l, - bucle pero en milisegundos.

DISPOSITIVO MODIFICACIÓN OPCIONES
[alguna uno de]
-pm, --persistence-mode = MODO
Establezca el modo de persistencia para las GPU de destino. Ver el (GPU ATRIBUTOS) sección para una
descripción del modo de persistencia. Requiere root. Afectará a todas las GPU a menos que sea una sola GPU
se especifica mediante el -i argumento. El efecto de esta operación es inmediato. Sin embargo,
no persiste en los reinicios. Después de cada reinicio, el modo de persistencia será predeterminado
"Discapacitado". Disponible solo en Linux.

-mi, --ecc-config = CONFIG
Configure el modo ECC para las GPU de destino. Ver el (GPU ATRIBUTOS) sección para una descripción
del modo ECC. Requiere root. Afectará a todas las GPU a menos que se especifique una sola GPU mediante
el -i argumento. Esta configuración entra en vigor después del siguiente reinicio y es persistente.

-pag, --reset-ecc-errors = TIPO
Restablezca los contadores de errores de ECC para las GPU de destino. Ver el (GPU ATRIBUTOS) sección para una
descripción de los tipos de contadores de errores ECC. Los argumentos disponibles son 0 | VOLATILE o
1 | AGREGADO. Requiere root. Afectará a todas las GPU a menos que se especifique una sola GPU mediante
el -i argumento. El efecto de esta operación es inmediato.

-C, --compute-mode = MODO
Establezca el modo de procesamiento para las GPU de destino. Ver el (GPU ATRIBUTOS) sección para una
descripción del modo de cálculo. Requiere root. Afectará a todas las GPU a menos que una sola GPU sea
especificado usando el -i argumento. El efecto de esta operación es inmediato. De todos modos, eso
no persiste en los reinicios. Después de cada reinicio, el modo de cálculo se restablecerá a "PREDETERMINADO".

-dm TIPO, --driver-model = TIPO
-fdm TIPO, --force-driver-model = TIPO
Habilite o deshabilite el modelo de controlador TCC. Solo para Windows. Requiere privilegios de administrador.
-dm fallará si se adjunta una pantalla, pero -fdm forzará al modelo del controlador a cambiar.
Afectará a todas las GPU a menos que se especifique una sola GPU mediante el -i argumento. Un reinicio es
necesario para que se produzca el cambio. Ver Destornillador Modelo para obtener más información sobre Windows
modelos de controlador.

--gom = MODO
Establecer el modo de funcionamiento de la GPU: 0 / ALL_ON, 1 / COMPUTE, 2 / LOW_DP Compatible con GK110 M-class y X-
clase de productos Tesla de la familia Kepler. No es compatible con Quadro y Tesla C-class
productos. LOW_DP y ALL_ON son los únicos modos compatibles con los dispositivos GeForce Titan.
Requiere privilegios de administrador. Ver GPU Operación Moda para obtener más información sobre GOM.
Los cambios de GOM entran en vigor después del reinicio. El requisito de reinicio puede eliminarse en el
futuro. Los GOM de solo cómputo no son compatibles con WDDM (modelo de controlador de pantalla de Windows)

-r, --gpu-restablecer
Activa un reinicio de la GPU. Se puede utilizar para borrar el estado de HW y SW de la GPU en situaciones que
de lo contrario, sería necesario reiniciar la máquina. Suele ser útil si se ha producido un error ECC de doble bit.
ocurrió. Requiere -i cambiar al dispositivo específico de destino. Requiere root. No puede haber
cualquier aplicación que utilice este dispositivo en particular (p. ej., aplicación CUDA, aplicación de gráficos
como servidor X, aplicación de monitoreo como otra instancia de nvidia-smi). Ahi tambien
No puede haber ninguna aplicación informática que se ejecute en ninguna otra GPU del sistema. Sólo en
dispositivos compatibles de la familia Fermi y Kepler que se ejecutan en Linux.

No se garantiza que el restablecimiento de la GPU funcione en todos los casos. No se recomienda para producción.
entornos en este momento. En algunas situaciones, puede haber componentes HW en la placa.
que no vuelven a un estado inicial después de la solicitud de reinicio. Esto es más
es probable que se vea en los productos de la generación Fermi en comparación con Kepler, y es más probable que se vea si
el reinicio se está realizando en una GPU colgada.

Después de un reinicio, se recomienda que se verifique el estado de la GPU antes de continuar
usar. La herramienta nvidia-healthmon es una buena opción para esta prueba. Si la GPU no está en buen estado
Se debe iniciar un reinicio completo apagando y apagando el nodo.

Visite http://developer.nvidia.com/gpu-deployment-kit para descargar el GDK y nvidia-
saludmon.

-C.A, --aplicaciones-relojes = MEM_CLOCK, GRAPHICS_CLOCK
Especifica el máximo relojes como un par (por ejemplo, 2000,800) que define las GPU
velocidad mientras se ejecutan aplicaciones en una GPU. Para dispositivos Tesla de la familia Kepler + y
GeForce Titan basada en Maxwell. Requiere root a menos que las restricciones se relajen con -acp
mando..

-rac, --restablecer-aplicaciones-relojes
Restablece los relojes de las aplicaciones al valor predeterminado. Para dispositivos Tesla de Kepler +
familia y GeForce Titan basada en Maxwell. Requiere root a menos que se relajen las restricciones
con el comando -acp.

-acp, --aplicaciones-relojes-permiso = MODO
Alternar si los relojes de las aplicaciones pueden ser cambiados por todos los usuarios o solo por root. Disponible
los argumentos son 0 | NO RESTRINGIDO, 1 | RESTRINGIDO. Para dispositivos Tesla de la familia Kepler + y
GeForce Titan basada en Maxwell. Requiere root.

-pl, --power-limit = POWER_LIMIT
Especifica el límite máximo de potencia en vatios. Acepta números enteros y de coma flotante. Solamente
en dispositivos compatibles de la familia Kepler. Requiere privilegios de administrador. Necesidades de valor
estar entre el límite de potencia mínimo y máximo según lo informado por nvidia-smi.

-soy, --conting-mode = MODO
Habilita o deshabilita la contabilidad de GPU. Con la contabilidad de GPU, se puede realizar un seguimiento del uso de
recursos a lo largo de la vida útil de un solo proceso. Solo en dispositivos compatibles con Kepler
familia. Requiere privilegios de administrador. Los argumentos disponibles son 0 | DISABLED o
1 | HABILITADO.

-caá, --aplicaciones-contadas-claras
Borra todos los procesos contabilizados hasta el momento. Solo en dispositivos compatibles de la familia Kepler.
Requiere privilegios de administrador.

--auto-boost-default = MODO
Establezca la política de refuerzo automático predeterminada en 0 / DISABLED o 1 / ENABLED, aplicando solo el cambio
después de que haya salido el último cliente de refuerzo. Solo en ciertos dispositivos Tesla de Kepler +
familia y dispositivos GeForce basados ​​en Maxwell. Requiere root.

--auto-boost-default-force = MODO
Establezca la política de impulso automático predeterminada en 0 / DISABLED o 1 / ENABLED, haciendo cumplir el cambio
inmediatamente. Solo en ciertos dispositivos Tesla de la familia Kepler + y basados ​​en Maxwell
Dispositivos GeForce. Requiere root.

--auto-boost-permiso = MODO
Permitir el control no administrador / root sobre el modo de refuerzo automático. Los argumentos disponibles son
0 | SIN RESTRICCIONES, 1 | RESTRINGIDAS. Solo en ciertos dispositivos Tesla de la familia Kepler + y
Dispositivos GeForce basados ​​en Maxwell. Requiere root.

[más Opcional]
-I, --id = ID
Modifica una sola GPU especificada. La identificación especificada puede ser el índice basado en 0 de GPU / Unit en
la enumeración natural devuelta por el controlador, el número de serie de la placa de la GPU, la GPU
UUID, o el ID del bus PCI de la GPU (como dominio: bus: función del dispositivo en hexadecimal). Es recomendado
que los usuarios que deseen coherencia utilicen UUID o ID de bus PCI, ya que la enumeración de dispositivos
No se garantiza que el pedido sea consistente entre reinicios y el número de serie de la placa podría
compartirse entre varias GPU en la misma placa.

UNIDAD MODIFICACIÓN OPCIONES
-t, --toggle-led = ESTADO
Configure el estado del indicador LED en la parte frontal y posterior de la unidad en el color especificado. Ver
la (UNIDAD ATRIBUTOS) para obtener una descripción de los estados de los LED. Los colores permitidos son
0 | VERDE y 1 | AMBAR. Requiere root.

[más Opcional]
-I, --id = ID
Modifique una sola Unidad especificada. La identificación especificada es el índice basado en 0 de la Unidad en el
enumeración natural devuelta por el conductor.

ESPECTÁCULO DTD OPCIONES
--dtd
Dispositivo de visualización o unidad DTD.

[más Opcional]
-f EXPEDIENTE, --filename = ARCHIVO
Redirigir la salida de la consulta al archivo especificado en lugar de la salida estándar predeterminada. El especificado
se sobrescribirá el archivo.

-tu, --unidad
Mostrar DTD de unidad en lugar de DTD de dispositivo.

estadísticas
Muestra información estadística sobre la GPU. Utilice "nvidia-smi stats -h" para obtener más
información. Linux únicamente.

topo
Muestra información de topología sobre el sistema. Utilice "nvidia-smi topo -h" para obtener más
información. Linux únicamente. Muestra todas las GPU que NVML puede detectar, pero la afinidad de la CPU
La información solo se mostrará para GPU con Kepler o arquitecturas más nuevas. Nota: GPU
la enumeración es la misma que NVML.

drenar
Muestra y modifica los estados de drenaje de la GPU. Utilice "nvidia-smi Drain -h" para obtener más información.
Solo Linux.

enlace nv
Muestra información de nvlink. Utilice "nvidia-smi nvlink -h" para obtener más información.

relojes
Consultar y controlar el comportamiento del reloj. Actualmente, esto solo se aplica al impulso sincronizado.
Utilice "nvidia-smi clocks --help" para obtener más información.

DEVOLUCION VALOR


El código de retorno refleja si la operación se realizó correctamente o no y cuál fue la razón de la
fracaso.

· Código de retorno 0 - Correcto

· Código de retorno 2: un argumento o indicador proporcionado no es válido

· Código de retorno 3: la operación solicitada no está disponible en el dispositivo de destino

· Código de retorno 4: el usuario actual no tiene permiso para acceder a este dispositivo o
realizar esta operación

· Código de retorno 6: una consulta para encontrar un objeto no tuvo éxito

· Código de retorno 8: los cables de alimentación externos de un dispositivo no están conectados correctamente

· Código de retorno 9: el controlador NVIDIA no está cargado

· Código de retorno 10: el kernel de NVIDIA detectó un problema de interrupción con una GPU

· Código de retorno 12: no se pudo encontrar ni cargar la biblioteca compartida de NVML

· Código de retorno 13: la versión local de NVML no implementa esta función

· Código de retorno 14 - infoROM está dañado

· Código de retorno 15: la GPU se ha caído del autobús o se ha vuelto
inaccesible

· Código de retorno 255 - Ocurrió otro error o error interno del controlador

GPU ATRIBUTOS


La siguiente lista describe todos los datos posibles devueltos por el -q opción de consulta del dispositivo.
A menos que se indique lo contrario, todos los resultados numéricos son de base 10 y no tienen unidades.

Timestamp
La marca de tiempo actual del sistema en el momento en que se invocó nvidia-smi. El formato es "Día de la semana
Mes Día HH: MM: SS Año ".

Destornillador Versión
La versión del controlador de pantalla NVIDIA instalado. Esta es una cadena alfanumérica.

Se adjunta GPU
La cantidad de GPU NVIDIA en el sistema.

Producto Nombre
El nombre de producto oficial de la GPU. Esta es una cadena alfanumérica. Para todos los productos.

Visualización Moda
Una bandera que indica si una pantalla física (por ejemplo, un monitor) está actualmente conectada a
cualquiera de los conectores de la GPU. "Habilitado" indica una pantalla adjunta. "Discapacitado"
indica lo contrario.

Visualización Activo(s)
Una bandera que indica si una pantalla está inicializada en la GPU (por ejemplo, la memoria está
asignado en el dispositivo para visualización). La pantalla puede estar activa incluso cuando no hay ningún monitor
físicamente adjunto. "Habilitado" indica una pantalla activa. "Deshabilitado" indica
de otra manera.

Persistencia Moda
Una bandera que indica si el modo de persistencia está habilitado para la GPU. El valor es
"Habilitado" o "Deshabilitado". Cuando el modo de persistencia está habilitado, el controlador NVIDIA permanece
cargado incluso cuando no existen clientes activos, como X11 o nvidia-smi. Esto minimiza la
latencia de carga del controlador asociada con la ejecución de aplicaciones dependientes, como los programas CUDA. Para
todos los productos compatibles con CUDA. Solo Linux.

Sector contable Moda
Una bandera que indica si el modo de contabilidad está habilitado para el valor de GPU es cuando
La contabilidad está habilitada, las estadísticas se calculan para cada proceso de cálculo que se ejecuta en el
GPU. Las estadísticas se pueden consultar durante la vida útil o después de la finalización del proceso.
El tiempo de ejecución del proceso se informa como 0 mientras el proceso está en estado de ejecución y
actualizado al tiempo de ejecución real una vez finalizado el proceso. Ver --help-query-
contadas-aplicaciones para obtener más información.

Sector contable Moda Buffer Tamaño
Devuelve el tamaño del búfer circular que contiene la lista de procesos que se pueden consultar
para estadísticas contables. Este es el número máximo de procesos que la información contable
se almacenará antes de que la información sobre los procesos más antiguos sea sobrescrita por
información sobre nuevos procesos.

Destornillador Modelo
En Windows, se admiten los modelos de controladores TCC y WDDM. El modelo de controlador se puede cambiar
con el (-dm) O (-fdm) banderas. El modelo de controlador TCC está optimizado para computación
aplicaciones. Los tiempos de lanzamiento del kernel de IE serán más rápidos con TCC. El modelo de controlador WDDM
está diseñado para aplicaciones gráficas y no se recomienda para aplicaciones informáticas.
Linux no admite varios modelos de controladores y siempre tendrá el valor "N / A".

Current El modelo de controlador actualmente en uso. Siempre "N / A" en Linux.

Pendiente El modelo de controlador que se utilizará en el próximo reinicio. Siempre "N / A" activado
Linux.

Serial Número
Este número coincide con el número de serie impreso físicamente en cada placa. Es un global
valor alfanumérico inmutable único.

GPU UUID
Este valor es el identificador alfanumérico inmutable único a nivel mundial de la GPU. Lo hace
no corresponde a ninguna etiqueta física en el tablero.

Clasificacion "Minor" Número
El número menor para el dispositivo es tal que el archivo de nodo del dispositivo Nvidia para cada GPU
tienen la forma / dev / nvidia [número menor]. Disponible solo en la plataforma Linux.

VBIOS Versión
El BIOS de la placa GPU.

MultiGPU Junta Directiva
Si esta GPU es parte de una placa multiGPU o no.

Junta Directiva ID
La ID de placa única asignada por el conductor. Si dos o más GPU tienen el mismo ID de placa
y el campo "MultiGPU" anterior es verdadero, entonces las GPU están en la misma placa.

Información Versión
Números de versión para cada objeto en el almacenamiento de información de la placa GPU. El inforom es un
almacenamiento pequeño y persistente de datos de configuración y estado de la GPU. Toda la versión de inforom
los campos son numéricos. Puede ser útil conocer estos números de versión porque algunas GPU
Las funciones solo están disponibles con informes de una determinada versión o superior.

Si alguno de los campos siguientes devuelve Error desconocido, se realiza una verificación adicional de Inforom.
realizado y se muestra el mensaje de advertencia correspondiente.

Imagen Versión Versión global de la imagen infoROM. Versión de imagen como la versión de VBIOS
describe de forma única la versión exacta de la infoROM que se muestra en la placa en
contrasta con la versión del objeto infoROM, que es solo un indicador de compatibilidad
características.

OEM Objeto Versión de los datos de configuración del OEM.

ECC Objeto Versión de los datos de grabación ECC.

Potencia Objeto Versión para los datos de administración de energía.

GPU Operación Moda
GOM permite reducir el uso de energía y optimizar el rendimiento de la GPU al deshabilitar las funciones de la GPU.

Cada GOM está diseñado para satisfacer las necesidades específicas de los usuarios.

En el modo "Todo encendido", todo está habilitado y funcionando a toda velocidad.

El modo "Compute" está diseñado para ejecutar solo tareas de computación. Las operaciones de gráficos no son
permitido.

El modo "Low Double Precision" está diseñado para ejecutar aplicaciones gráficas que no
requieren alta precisión de doble ancho de banda.

GOM se puede cambiar con el (--gom) bandera.

Compatible con productos Tesla GK110 clase M y clase X de la familia Kepler. No
compatible con los productos de clase C de Quadro y Tesla. Los modos Low Double Precision y All On son
los únicos modos disponibles para los productos GeForce Titan compatibles.

Current El GOM actualmente en uso.

Pendiente El GOM que se utilizará en el próximo reinicio.

PCI
Información PCI básica para el dispositivo. Parte de esta información puede cambiar cada vez que se cargan las tarjetas.
agregado / eliminado / movido en un sistema. Para todos los productos.

Autobús Número de bus PCI, en hexadecimal

Inteligencia del Número de dispositivo PCI, en hexadecimal

Dominio Número de dominio PCI, en hexadecimal

Inteligencia del Id ID de dispositivo del proveedor PCI, en hexadecimal

Sub System Id Identificación del subsistema PCI, en hexadecimal

Autobús Id ID de bus PCI como "dominio: bus: dispositivo.función", en hexadecimal

GPU Enlace práctica
La generación de enlaces PCIe y el ancho del bus

Current La generación y el ancho del enlace actual. Estos pueden reducirse cuando la GPU
no está en uso.

Máxima La máxima generación de enlaces y ancho posible con esta GPU y este sistema
configuración. Por ejemplo, si la GPU admite una generación PCIe superior
que el sistema admite, esto informa la generación de PCIe del sistema.

Puente Viruta
Información relacionada con Bridge Chip en el dispositivo. El firmware del chip puente solo está presente
en ciertas placas y puede mostrar "N / A" para algunas placas multiGPU más nuevas.

Tipo El tipo de chip puente. Reportado como N / A si no existe.

Firmware Versión
La versión de firmware del chip puente. Reportado como N / A si no existe.

Repetir mostrador
Este es el contador interno que registra varios errores en el bus PCIe.

Tx Throughput
El rendimiento de transmisión centrado en la GPU a través del bus PCIe en MB / s durante los últimos 20 ms.
Solo es compatible con arquitecturas Maxwell y más nuevas.

Rx Throughput
El rendimiento de recepción centrado en la GPU a través del bus PCIe en MB / s durante los últimos 20 ms. Solo
compatible con arquitecturas Maxwell y más nuevas.

Ventilador Velocidad
El valor de la velocidad del ventilador es el porcentaje de la velocidad máxima a la que está actualmente el ventilador del dispositivo.
destinado a ejecutarse en. Va de 0 a 100%. Nota: La velocidad informada es la prevista
velocidad del ventilador. Si el ventilador está bloqueado físicamente y no puede girar, esta salida no
coincidir con la velocidad real del ventilador. Muchas piezas no informan las velocidades del ventilador porque dependen de
enfriamiento a través de ventiladores en el recinto circundante. Para todos los productos discretos con
ventiladores.

Rendimiento Estado
El estado de rendimiento actual de la GPU. Los estados van desde P0 (rendimiento máximo) a
P12 (rendimiento mínimo).

Relojes acelerador Motivos
Recupera información sobre factores que reducen la frecuencia de los relojes. Sólo en
dispositivos Tesla compatibles de la familia Kepler.

Si todos los motivos del acelerador se devuelven como "No activo", significa que los relojes están funcionando como
lo más alto posible.

Idle No se está ejecutando nada en la GPU y los relojes están pasando al estado inactivo.
Este limitador puede eliminarse en una versión posterior.

Solicitud Relojes Fijar
Los relojes de la GPU están limitados por la configuración de los relojes de las aplicaciones. Por ejemplo, se puede cambiar
usando nvidia-smi --applications-clocks =

SW Potencia Gorra El algoritmo SW Power Scaling está reduciendo los relojes por debajo de los relojes solicitados
porque la GPU consume demasiada energía. Por ejemplo, el límite de potencia de SW puede
cambiarse con nvidia-smi --power-limit =

HW Ve más despacio La ralentización de HW (que reduce los relojes centrales en un factor de 2 o más) está activada.

Este es un indicador de:
* La temperatura es demasiado alta
* La afirmación del freno de potencia externa se activa (p. Ej., Por la potencia del sistema
suministro)
* El consumo de energía es demasiado alto y la protección Fast Trigger está reduciendo los relojes

Desconocido Algún otro factor no especificado es la reducción de los relojes.

FB Salud Cerebral Uso
Información de la memoria de búfer de trama incorporada. La memoria total informada se ve afectada por el estado ECC.
Si ECC está habilitado, la memoria total disponible se reduce en varios porcentajes, debido a la
bits de paridad necesarios. El controlador también puede reservar una pequeña cantidad de memoria para
utilizar, incluso sin trabajo activo en la GPU. Para todos los productos.

Total Tamaño total de la memoria FB.

Usado Tamaño utilizado de la memoria FB.

Gratis Tamaño disponible de la memoria FB.

BAR1 Salud Cerebral Uso
BAR1 se utiliza para mapear el FB (memoria del dispositivo) para que la CPU pueda acceder directamente a él
o por dispositivos de terceros (peer-to-peer en el bus PCIe).

Total Tamaño total de la memoria BAR1.

Usado Tamaño utilizado de la memoria BAR1.

Gratis Tamaño disponible de la memoria BAR1.

Calcular Moda
La bandera del modo de cálculo indica si las aplicaciones de cálculo individuales o múltiples pueden
ejecutar en la GPU.

"Predeterminado" significa que se permiten múltiples contextos por dispositivo.

"Proceso exclusivo" significa que solo se permite un contexto por dispositivo, utilizable desde múltiples
hilos a la vez.

"Prohibido" significa que no se permiten contextos por dispositivo (no hay aplicaciones informáticas).

"EXCLUSIVE_PROCESS" se agregó en CUDA 4.0. Las versiones anteriores de CUDA solo admitían una
modo exclusivo, que es equivalente a "EXCLUSIVE_THREAD" en CUDA 4.0 y posteriores.

Para todos los productos compatibles con CUDA.

Utilización
Las tasas de utilización informan qué tan ocupada está cada GPU a lo largo del tiempo y se pueden usar para determinar cómo
gran parte de una aplicación está utilizando las GPU en el sistema.

Nota: Durante la inicialización del controlador cuando ECC está habilitado, se puede ver una GPU y una memoria altas
Lecturas de utilización. Esto es causado por el mecanismo de limpieza de memoria ECC que se realiza
durante la inicialización del controlador.

GPU Porcentaje de tiempo durante el período muestral pasado durante el cual uno o más
kernels se estaba ejecutando en la GPU. El período de muestra puede estar entre 1
segundo y 1/6 de segundo dependiendo del producto.

Salud Cerebral Porcentaje de tiempo durante el último período de muestra durante el cual global (dispositivo)
la memoria se estaba leyendo o escribiendo. El período de muestra puede estar entre 1
segundo y 1/6 de segundo dependiendo del producto.

codificador Porcentaje de tiempo durante el período de muestra anterior durante el cual el video de la GPU
se estaba utilizando el codificador. La frecuencia de muestreo es variable y se puede obtener
directamente a través de la API nvmlDeviceGetEncoderUtilization ()

Descifrador Porcentaje de tiempo durante el período de muestra anterior durante el cual el video de la GPU
se estaba utilizando el decodificador. La frecuencia de muestreo es variable y se puede obtener
directamente a través de la API nvmlDeviceGetDecoderUtilization ()

Ecl Moda
Una bandera que indica si la compatibilidad con ECC está habilitada. Puede estar "habilitado" o
"Discapacitado". Los cambios al modo ECC requieren un reinicio. Requiere la versión del objeto Inforom ECC
1.0 o superior.

Current El modo ECC en el que funciona actualmente la GPU.

Pendiente El modo ECC en el que funcionará la GPU después del próximo reinicio.

ECC Errores
Las GPU NVIDIA pueden proporcionar recuentos de errores para varios tipos de errores ECC. Algunos errores de ECC son
ya sea de uno o dos bits, donde los errores de un solo bit se corrigen y los errores de doble bit
son incorregibles. Los errores de memoria de textura pueden corregirse mediante reenvío o incorregible
si el reenvío falla. Estos errores están disponibles en dos escalas de tiempo (volátiles y
agregar). Los errores ECC de un solo bit son corregidos automáticamente por el hardware y no resultan
en la corrupción de datos. Los errores de bit doble se detectan pero no se corrigen. Consulte el ECC
documentos en la web para obtener información sobre el comportamiento de la aplicación informática cuando
ocurren errores. Los contadores de errores volátiles rastrean el número de errores detectados desde la última
carga del conductor. Los recuentos de errores agregados persisten indefinidamente y, por lo tanto, actúan como de por vida.
contrarrestar.

Una nota sobre los recuentos de volátiles: en Windows, esto es una vez por arranque. En Linux esto puede ser más
frecuente. En Linux, el controlador se descarga cuando no existen clientes activos. Por tanto, si
el modo de persistencia está habilitado o siempre hay un cliente de controlador activo (por ejemplo, X11), entonces
Linux también ve el comportamiento por arranque. De lo contrario, los recuentos volátiles se restablecen cada vez que se realiza un cálculo.
se ejecuta la aplicación.

Los productos Tesla y Quadro de la familia Fermi y Kepler pueden mostrar un error ECC total
recuentos, así como un desglose de errores según la ubicación en el chip. Las ubicaciones son
descrito abajo. Los datos basados ​​en la ubicación para el recuento de errores agregados requieren Inforom ECC
objeto versión 2.0. Todos los demás recuentos de ECC requieren la versión 1.0 del objeto ECC.

Inteligencia del Salud Cerebral Errores detectados en la memoria global del dispositivo.

Inscripción Archive Errores detectados en la memoria del archivo de registro.

L1 Cache Errores detectados en la caché L1.

L2 Cache Errores detectados en la caché L2.

Texture Salud Cerebral Errores de paridad detectados en la memoria de texturas.

Total Total de errores detectados en todo el chip. La suma de Inteligencia del Salud Cerebral, Inscripción
Archive, L1 Cache, L2 Cache y Texture Salud Cerebral.

Página. Jubilación
Las GPU NVIDIA pueden retirar páginas de la memoria del dispositivo GPU cuando se vuelven poco confiables. Esto puede
suceden cuando se producen varios errores ECC de un solo bit para la misma página, o en un ECC de doble bit
error. Cuando se retira una página, el controlador de NVIDIA la ocultará de manera que ningún controlador, o
las asignaciones de memoria de la aplicación pueden acceder a él.

Doble Poco ECC El número de páginas de memoria del dispositivo GPU que se han retirado debido a una
Error ECC de doble bit.

Individual Poco ECC El número de páginas de memoria del dispositivo GPU que se han retirado debido a
múltiples errores ECC de un solo bit.

Pendiente Comprueba si alguna página de memoria del dispositivo GPU está pendiente de retiro en el próximo reinicio.
Las páginas que están pendientes de retiro aún se pueden asignar y pueden causar más
Problemas de fiabilidad.

Temperatura
Lecturas de los sensores de temperatura en el tablero. Todas las lecturas están en grados C. No todas
Los productos admiten todos los tipos de lectura. En particular, los productos en factores de forma de módulo que
los ventiladores de caja o la refrigeración pasiva no suelen proporcionar lecturas de temperatura. Ver
a continuación para conocer las restricciones.

GPU Temperatura del núcleo de la GPU. Para todos los productos discretos y de clase S.

cierre Trabajador Temporal La temperatura a la que se apagará una GPU.

Ve más despacio Trabajador Temporal La temperatura a la que una GPU comenzará a desacelerarse para
fresco.

Potencia Lecturas
Las lecturas de energía ayudan a arrojar luz sobre el uso actual de energía de la GPU y los factores
que afectan ese uso. Cuando la administración de energía está habilitada, la GPU limita el consumo de energía bajo
Carga para encajar dentro de una envolvente de potencia predefinida manipulando el rendimiento actual
estado. Consulte a continuación los límites de disponibilidad.

Potencia Estado El estado de energía está en desuso y se ha cambiado su nombre a Estado de rendimiento en
2.285. Para mantener la compatibilidad XML, en formato XML, Performance State es
enumerados en ambos lugares.

Potencia Gestionamiento
Una bandera que indica si la administración de energía está habilitada. Cualquiera
"Compatible" o "N / A". Requiere el objeto Inforom PWR versión 3.0 o superior o
Dispositivo Kepler.

Potencia Empate El último consumo de energía medido para toda la placa, en vatios. Solamente
disponible si se admite la administración de energía. Esta lectura es precisa para
dentro de +/- 5 vatios. Requiere el objeto Inforom PWR versión 3.0 o superior o
Dispositivo Kepler.

Potencia Limitar El límite de potencia del software, en vatios. Establecido por software como nvidia-smi.
Solo disponible si se admite la administración de energía. Requiere Inforom PWR
objeto versión 3.0 o superior o dispositivo Kepler. En dispositivos Kepler Alimentación
El límite se puede ajustar usando los interruptores -pl, - power-limit =.

forzada Potencia Limitar
El techo de potencia del algoritmo de administración de energía, en vatios. Tablero total
El consumo de energía es manipulado por el algoritmo de administración de energía de manera que
permanece por debajo de este valor. Este límite es el mínimo de varios límites como
como el límite de software mencionado anteriormente. Solo disponible si la administración de energía está
soportado. Requiere un dispositivo Kepler.

"Predeterminado" Potencia Limitar
El límite máximo de energía del algoritmo de administración de energía predeterminado, en vatios. Poder
El límite se volverá a establecer en el límite de potencia predeterminado después de la descarga del controlador. Sólo en
dispositivos compatibles de la familia Kepler.

Min Potencia Limitar
El valor mínimo en vatios en el que se puede establecer el límite de potencia. Sólo en
dispositivos compatibles de la familia Kepler.

Max Potencia Limitar
El valor máximo en vatios en el que se puede establecer el límite de potencia. Sólo en
dispositivos compatibles de la familia Kepler.

Relojes
Frecuencia actual a la que se ejecutan las partes de la GPU. Todas las lecturas están en MHz.

DISEÑO Frecuencia actual del reloj de gráficos (sombreado).

SM Frecuencia actual del reloj SM (Streaming Multiprocessor).

Salud Cerebral Frecuencia actual del reloj de memoria.

Video Frecuencia actual de los relojes de video (codificador + descodificador).

Aplicaciones Relojes
Frecuencia especificada por el usuario a la que se ejecutarán las aplicaciones. Se puede cambiar con
[-ac | --aplicaciones-relojes] conmutadores.

DISEÑO Frecuencia de reloj de gráficos (sombreador) especificada por el usuario.

Salud Cerebral Frecuencia de reloj de memoria especificada por el usuario.

"Predeterminado" Aplicaciones Relojes
Frecuencia predeterminada a la que se ejecutarán las aplicaciones. Los relojes de aplicación pueden
cambiado con [-ac | --aplicaciones-relojes] conmutadores. Los relojes de la aplicación se pueden configurar en
predeterminado usando [-rac | --reset-applications-clocks] conmutadores.

DISEÑO Frecuencia predeterminada del reloj de gráficos de aplicaciones (sombreado).

Salud Cerebral Frecuencia predeterminada del reloj de memoria de las aplicaciones.

Max Relojes
Frecuencia máxima a la que las partes de la GPU están diseñadas para ejecutarse. Todas las lecturas están en MHz.

En las GPU de la familia Fermi, los relojes P0 actuales (informados en la sección Relojes) pueden diferir de
Max relojes por unos pocos MHz.

DISEÑO Frecuencia máxima de reloj de gráficos (sombreado).

SM Frecuencia máxima del reloj SM (Streaming Multiprocessor).

Salud Cerebral Frecuencia máxima de reloj de memoria.

Video Frecuencia máxima de reloj de video (codificador + descodificador).

Reloj Privacidad
Configuraciones especificadas por el usuario para cambios de reloj automatizados, como aumento automático.

Auto Aumentar la productividad con la ayuda de soluciones confiables de YANTAI CHIHONG Indica si el modo de refuerzo automático está habilitado actualmente para esta GPU (encendido) o
deshabilitado para esta GPU (Apagado). Muestra (N / A) si no se admite el impulso. Auto
boost permite la sincronización dinámica de la GPU basada en la potencia, la temperatura y la utilización.
Cuando el impulso automático está deshabilitado, la GPU intentará mantener los relojes en
precisamente la configuración de Relojes de aplicación actual (siempre que un contexto CUDA
está activo). Con el impulso automático habilitado, la GPU aún intentará mantener
este piso, pero aumentará de manera oportunista a relojes más altos cuando el poder,
Permite el margen térmico y de aprovechamiento. Esta configuración persiste de por vida.
del contexto CUDA para el que fue solicitado. Las aplicaciones pueden solicitar una
modo particular ya sea a través de una llamada NVML (ver NVML SDK) o configurando el
Variable de entorno CUDA CUDA_AUTO_BOOST.

Auto Aumentar la productividad con la ayuda de soluciones confiables de YANTAI CHIHONG "Predeterminado"
Indica la configuración predeterminada para el modo de refuerzo automático, ya sea habilitado (Encendido) o
desactivado (Apagado). Muestra (N / A) si no se admite el impulso. Las aplicaciones se ejecutarán en el
modo predeterminado si no han solicitado explícitamente un modo en particular. Nota:
La configuración de Auto Boost solo se puede modificar si el "Modo de persistencia" está habilitado,
que NO es por defecto.

Soportado relojes
Lista de posibles combinaciones de relojes de memoria y gráficos con las que puede operar la GPU (no
teniendo en cuenta los relojes reducidos de freno HW). Estas son las únicas combinaciones de reloj que
se puede pasar al indicador --applications-clocks. Los relojes admitidos se enumeran solo cuando -q -d
Se proporcionan conmutadores SUPPORTED_CLOCKS o en formato XML.

Procesos
Lista de procesos que tienen contexto informático o gráfico en el dispositivo. Los procesos de computación son
informó sobre todos los productos totalmente compatibles. La generación de informes para los procesos de gráficos es limitada
a los productos compatibles comenzando con la arquitectura Kepler.

Cada entrada es de formato " "

GPU Home Representa el índice NVML del dispositivo.

PID Representa el ID de proceso correspondiente a la Computación o Gráficos activos
contexto.

Tipo Se muestra como "C" para el proceso de cómputo, "G" para el proceso de gráficos y "C + G"
para el proceso que tiene contextos tanto de Computación como de Gráficos.

Proceso Nombre Representa el nombre del proceso para el proceso de Computación o Gráficos.

GPU Salud Cerebral Uso
Cantidad de memoria utilizada en el dispositivo por el contexto. No disponible en
Windows cuando se ejecuta en modo WDDM porque Windows KMD administra todos los
memoria, no controlador NVIDIA.

Estadísticas (EXPERIMENTAL)
Enumere las estadísticas de la GPU, como muestras de energía, muestras de utilización, eventos xid, cambio de reloj
Contadores de eventos y violaciones.

Compatible con productos basados ​​en Tesla, GRID y Quadro en Linux.

Limitado a Kepler o GPU más nuevas.

Muestra estadísticas en formato CSV de la siguiente manera:

, , ,

Las métricas para mostrar con sus unidades son las siguientes:

Muestras de potencia en Watts.

Muestras de temperatura de GPU en grados Celsius.

Muestras de utilización de GPU, memoria, codificador y decodificador en porcentaje.

Eventos de error Xid informados con el código de error Xid. El código de error es 999 para xid desconocido
error.

El reloj del procesador y la memoria cambia en MHz.

Violación por limitación de energía con tiempo de violación en ns. (Solo Tesla)

Violación por limitación térmica con bandera booleana de violación (1/0). (Solo Tesla)

Notas:

Cualquier estadística precedida por "#" es un comentario.

El dispositivo no compatible se muestra como "# , Dispositivo no compatible".

La métrica no admitida se muestra como " , , N / A, N / A ".

Violación debida a Térmica / Energía admitida solo para productos basados ​​en Tesla. Violaciones térmicas
están limitados a Tesla K20 y superiores.

Inteligencia del Monitoring
La línea de comandos "nvidia-smi dmon" se usa para monitorear una o más GPU (hasta 4 dispositivos)
conectado al sistema. Esta herramienta permite al usuario ver una línea de datos de monitoreo por
ciclo de seguimiento. La salida está en formato conciso y fácil de interpretar en formato interactivo.
modo. Los datos de salida por línea están limitados por el tamaño del terminal. Es compatible con Tesla,
Productos GRID, Quadro y GeForce limitados para Kepler o GPU más nuevas bajo bare metal 64
bits Linux. De forma predeterminada, los datos de monitoreo incluyen uso de energía, temperatura, relojes SM,
Relojes de memoria y valores de utilización para SM, memoria, codificador y decodificador. También puede ser
configurado para informar otras métricas, como el uso de la memoria del búfer de tramas, el uso de la memoria bar1,
violaciones de energía / térmicas y errores agregados de ecc de bit simple / doble. Si alguna de las métricas
no es compatible con el dispositivo o cualquier otro error al obtener la métrica se informa como
"-" en los datos de salida. El usuario también puede configurar la frecuencia de monitoreo y el número de
monitorear iteraciones para cada ejecución. También hay una opción para incluir la fecha y la hora en
cada línea. Todas las opciones admitidas son exclusivas y se pueden utilizar juntas en cualquier orden.

Uso:

1) "Predeterminado" con no argumentos

nvidia-smi demonio

Supervisa métricas predeterminadas para hasta 4 dispositivos compatibles bajo enumeración natural (comenzando
con índice de GPU 0) a una frecuencia de 1 seg. Funciona hasta que termina con ^ C.

2) Seleccione uno or Saber más Médicos

nvidia-smi demonio -i <dispositivo1,dispositivo2, .. , dispositivoN>

Informa métricas predeterminadas para los dispositivos seleccionados por lista de dispositivos separados por comas. La herramienta
selecciona hasta 4 dispositivos compatibles de la lista bajo enumeración natural (comenzando con GPU
índice 0).

3) Seleccione métrica a be aquí

nvidia-smi demonio -s

puede ser uno o más de los siguientes:

p - Uso de energía (en vatios) y temperatura (en C)

u - Utilización (SM, memoria, codificador y utilización del decodificador en%)

c - Relojes Proc y Mem (en MHz)

v - Violaciones de energía (en%) y violaciones térmicas (como una bandera booleana)

m: uso de memoria Frame Buffer y Bar1 (en MB)

e - ECC (número de errores agregados de ecc de bit único, bit doble) y reproducción de PCIe
errores

t - Rendimiento de PCIe Rx y Tx en MB / s (Maxwell y superior)

4) Configurar monitoreo iteraciones

nvidia-smi demonio -c <número of muestras>

Muestra datos para un número específico de muestras y sale.

5) Configurar monitoreo frecuencia

nvidia-smi demonio -d <hora in segundos>

Recopila y muestra datos en cada intervalo de monitoreo especificado hasta que finaliza con
^ C.

6) Visualización datos

nvidia-smi demonio -o D

Antepone los datos de monitoreo con la fecha en formato AAAAMMDD.

7) Visualización time

nvidia-smi demonio -o T

Antepone los datos de monitoreo con la hora en formato HH: MM: SS.

8) Ayuda Info

nvidia-smi demonio -h

Muestra información de ayuda para usar la línea de comando.

demonio (EXPERIMENTAL)
El "demonio nvidia-smi" inicia un proceso en segundo plano para monitorear una o más GPU conectadas
al sistema. Supervisa las GPU solicitadas en cada ciclo de supervisión y registra el archivo en
formato comprimido en la ruta proporcionada por el usuario o la ubicación predeterminada en / var / log / nvstats /.
El archivo de registro se crea con la fecha del sistema adjunta y con el formato nvstats-
AAAAMMDD. La operación de vaciado del archivo de registro se realiza en cada ciclo de supervisión alternativo.
Daemon también registra su propio PID en /var/run/nvsmi.pid. De forma predeterminada, los datos de seguimiento
persistir incluye el uso de energía, temperatura, relojes SM, relojes de memoria y valores de utilización
para SM, memoria, codificador y decodificador. Las herramientas de demonio también se pueden configurar para registrar
otras métricas, como el uso de la memoria del búfer de tramas, el uso de la memoria de la barra1, la energía / térmica
violaciones y errores agregados de ecc de bit simple / doble. El ciclo de monitoreo predeterminado está configurado
a 10 segundos y se puede configurar a través de la línea de comandos. Es compatible con Tesla, GRID, Quadro
y productos GeForce para Kepler o GPU más nuevas bajo Linux bare metal de 64 bits. El demonio
requiere privilegios de root para ejecutarse y solo admite la ejecución de una sola instancia en el
sistema. Todas las opciones admitidas son exclusivas y se pueden usar juntas en cualquier orden.

Uso:

1) "Predeterminado" con no argumentos

nvidia-smi demonio

Se ejecuta en segundo plano para supervisar las métricas predeterminadas de hasta 4 dispositivos compatibles en
enumeración natural (comenzando con el índice GPU 0) a una frecuencia de 10 seg. La fecha estampada
El archivo de registro se crea en / var / log / nvstats /.

2) Seleccione uno or Saber más Médicos

nvidia-smi demonio -i <dispositivo1,dispositivo2, .. , dispositivoN>

Se ejecuta en segundo plano para monitorear las métricas predeterminadas para los dispositivos seleccionados por coma
lista de dispositivos separados. La herramienta selecciona hasta 4 dispositivos compatibles de la lista debajo
enumeración natural (comenzando con el índice GPU 0).

3) Seleccione métrica a be monitoreado

nvidia-smi demonio -s

puede ser uno o más de los siguientes:

p - Uso de energía (en vatios) y temperatura (en C)

u - Utilización (SM, memoria, codificador y utilización del decodificador en%)

c - Relojes Proc y Mem (en MHz)

v - Violaciones de energía (en%) y violaciones térmicas (como una bandera booleana)

m: uso de memoria Frame Buffer y Bar1 (en MB)

e - ECC (número de errores agregados de ecc de bit único, bit doble) y reproducción de PCIe
errores

t - Rendimiento de PCIe Rx y Tx en MB / s (Maxwell y superior)

4) Configurar monitoreo frecuencia

nvidia-smi demonio -d <hora in segundos>

Recopila datos en cada intervalo de supervisión especificado hasta que finaliza.

5) Configurar log directorio

nvidia-smi demonio -p <ruta of directorio>

Los archivos de registro se crean en el directorio especificado.

6) Configurar log presentar nombre

nvidia-smi demonio -j <cadena a anexar log presentar nombre>

La línea de comandos se usa para agregar el nombre del archivo de registro con la cadena proporcionada por el usuario.

7) Terminar el demonio

nvidia-smi demonio -t

Esta línea de comando usa el PID almacenado (en /var/run/nvsmi.pid) para terminar el demonio. Eso
hace el mejor esfuerzo para detener el demonio y no ofrece garantías para su terminación. En
caso de que el demonio no se termine, entonces el usuario puede terminar manualmente enviando kill
señal al demonio. Realizar una operación de reinicio de GPU (a través de nvidia-smi) requiere todas las GPU
procesos de los que se va a salir, incluido el demonio. Los usuarios que tengan el demonio abierto verán un
error en el sentido de que la GPU está ocupada.

8) Ayuda Info

nvidia-smi demonio -h

Muestra información de ayuda para usar la línea de comando.

Repetir Moda (EXPERIMENTAL)
La línea de comandos "nvidia-smi replay" se usa para extraer / reproducir todo o parte del archivo de registro
generado por el demonio. De forma predeterminada, la herramienta intenta extraer métricas como Potencia
Uso, temperatura, relojes SM, relojes de memoria y valores de utilización para SM, memoria,
Codificador y decodificador. La herramienta de reproducción también puede obtener otras métricas, como el búfer de fotogramas.
uso de memoria, uso de memoria bar1, violaciones de energía / térmicas y bit simple / doble agregado
errores de ecc. Hay una opción para seleccionar un conjunto de métricas para reproducir, si alguna de las
la métrica solicitada no se mantiene o se registra como no admitida, entonces se muestra como "-" en
La salida. El formato de los datos producidos por este modo es tal que el usuario está ejecutando el
utilidad de monitoreo de dispositivos de forma interactiva. La línea de comando requiere la opción obligatoria "-f"
para especificar la ruta completa del nombre del archivo de registro, todas las demás opciones admitidas son
exclusivo y se pueden utilizar juntos en cualquier orden.

Uso:

1) Especificar log presentar a be repetido

nvidia-smi reproducir -f <registro presentar nombre>

Obtiene datos de monitoreo del archivo de registro comprimido y permite al usuario ver una línea
de datos de seguimiento (métricas predeterminadas con marca de tiempo) para cada iteración de seguimiento almacenada
en el archivo de registro. Una nueva línea de datos de monitorización se reproduce cada dos segundos independientemente
de la frecuencia de seguimiento real mantenida en el momento de la recopilación. Se muestra
hasta el final del archivo o hasta que ^ C lo termine.

2) Filtrar métrica a be repetido

nvidia-smi reproducir -f <ruta a log archivo> -s

puede ser uno o más de los siguientes:

p - Uso de energía (en vatios) y temperatura (en C)

u - Utilización (SM, memoria, codificador y utilización del decodificador en%)

c - Relojes Proc y Mem (en MHz)

v - Violaciones de energía (en%) y violaciones térmicas (como una bandera booleana)

m: uso de memoria Frame Buffer y Bar1 (en MB)

e - ECC (número de errores agregados de ecc de bit único, bit doble) y reproducción de PCIe
errores

t - Rendimiento de PCIe Rx y Tx en MB / s (Maxwell y superior)

3) Limitar reproducir a uno or Saber más Médicos

nvidia-smi reproducir -f <registro archivo> -i <dispositivo1,dispositivo2, .. , dispositivoN>

Limita los informes de las métricas al conjunto de dispositivos seleccionados por dispositivo separado por comas
lista. La herramienta omite cualquiera de los dispositivos que no se mantienen en el archivo de registro.

4) Restringir el time marco entre lo cual datos is reportaron

nvidia-smi reproducir -f <registro archivo> -b <inicio time in HH: MM: SS formato> -e <fin time in
HH: MM: SS formato>

Esta opción permite limitar los datos entre el rango de tiempo especificado. Especificando
el tiempo como 0 con la opción -bo -e implica el inicio o el final del archivo, respectivamente.

5) Redireccionar reproducir práctica a a log presentar

nvidia-smi reproducir -f <registro archivo> -r <salida presentar nombre>

Esta opción toma el archivo de registro como entrada y extrae la información relacionada con los valores predeterminados.
métricas en el archivo de salida especificado.

6) Ayuda Info

nvidia-smi reproducir -h

Muestra información de ayuda para usar la línea de comando.

Proceso Monitoring
La línea de comandos "nvidia-smi pmon" se usa para monitorear los procesos de computación y gráficos
ejecutándose en una o más GPU (hasta 4 dispositivos) conectadas al sistema. Esta herramienta permite
el usuario para ver las estadísticas de todos los procesos en ejecución en cada dispositivo en cada
ciclo de seguimiento. La salida está en formato conciso y fácil de interpretar en formato interactivo.
modo. Los datos de salida por línea están limitados por el tamaño del terminal. Es compatible con Tesla,
Productos GRID, Quadro y GeForce limitados para Kepler o GPU más nuevas bajo bare metal 64
bits Linux. Por defecto, los datos de monitoreo para cada proceso incluyen el comando pid,
nombre y valores de utilización promedio para SM, memoria, codificador y decodificador desde la última
ciclo de seguimiento. También se puede configurar para informar el uso de la memoria del búfer de tramas para cada
proceso. Si no hay ningún proceso en ejecución para el dispositivo, se informan todas las métricas
como "-" para el dispositivo. Si alguna de las métricas no es compatible con el dispositivo o cualquier otra
El error al obtener la métrica también se informa como "-" en los datos de salida. El usuario también puede
configurar la frecuencia de monitoreo y el número de iteraciones de monitoreo para cada ejecución. Ahí
También es una opción para incluir la fecha y la hora en cada línea. Todas las opciones admitidas son
exclusivo y se pueden utilizar juntos en cualquier orden.

Uso:

1) "Predeterminado" con no argumentos

nvidia-smi pMON

Supervisa todos los procesos que se ejecutan en cada dispositivo para hasta 4 dispositivos compatibles bajo
enumeración natural (comenzando con el índice GPU 0) a una frecuencia de 1 seg. Corre hasta
terminado con ^ C.

2) Seleccione uno or Saber más Médicos

nvidia-smi pMON -i <dispositivo1,dispositivo2, .. , dispositivoN>

Reporta estadísticas de todos los procesos que se ejecutan en los dispositivos seleccionados por coma
lista de dispositivos separados. La herramienta selecciona hasta 4 dispositivos compatibles de la lista debajo
enumeración natural (comenzando con el índice GPU 0).

3) Seleccione métrica a be aquí

nvidia-smi pMON -s

puede ser uno o más de los siguientes:

u - Utilización (SM, Memory, Encoder y Decoder Utilization para el proceso en%).
Reporta la utilización promedio desde el último ciclo de monitoreo.

m: uso del búfer de tramas (en MB). Reporta el valor instantáneo del uso de la memoria.

4) Configurar monitoreo iteraciones

nvidia-smi pMON -c <número of muestras>

Muestra datos para un número específico de muestras y sale.

5) Configurar monitoreo frecuencia

nvidia-smi pMON -d <hora in segundos>

Recopila y muestra datos en cada intervalo de monitoreo especificado hasta que finaliza con
^ C. La frecuencia de monitoreo debe estar entre 1 y 10 segundos.

6) Visualización datos

nvidia-smi pMON -o D

Antepone los datos de monitoreo con la fecha en formato AAAAMMDD.

7) Visualización time

nvidia-smi pMON -o T

Antepone los datos de monitoreo con la hora en formato HH: MM: SS.

8) Ayuda Info

nvidia-smi pMON -h

Muestra información de ayuda para usar la línea de comando.

topología (EXPERIMENTAL)
Enumere la información de topología sobre las GPU del sistema y cómo se conectan entre sí.
como NIC calificadas capaces de RDMA

Muestra una matriz de GPU disponibles con la siguiente leyenda:

Leyenda:

X = Yo
SOC = La ruta atraviesa un enlace a nivel de socket (por ejemplo, QPI)
PHB = La ruta atraviesa un puente de host PCIe
PXB = La ruta atraviesa varios conmutadores internos PCIe
PIX = La ruta atraviesa un conmutador interno PCIe

UNIDAD ATRIBUTOS


La siguiente lista describe todos los datos posibles devueltos por el -q -u opción de consulta de unidad.
A menos que se indique lo contrario, todos los resultados numéricos son de base 10 y no tienen unidades.

Timestamp
La marca de tiempo actual del sistema en el momento en que se invocó nvidia-smi. El formato es "Día de la semana
Mes Día HH: MM: SS Año ".

Destornillador Versión
La versión del controlador de pantalla NVIDIA instalado. El formato es
"Número-mayor.Número-menor".

HIC Información
Información sobre las tarjetas de interfaz de host (HIC) que están instaladas en el sistema.

Firmware Versión
La versión del firmware que se ejecuta en el HIC.

Se adjunta Monitoreadas
El número de Unidades conectadas en el sistema.

Producto Nombre
El nombre oficial del producto de la unidad. Este es un valor alfanumérico. Para toda la clase S
por la seguridad alimentaria

Producto Id
El identificador de producto de la unidad. Este es un valor alfanumérico de la forma
"part1-part2-part3". Para todos los productos de clase S.

Producto Serial
El identificador único global inmutable de la unidad. Este es un valor alfanumérico.
Para todos los productos de clase S.

Firmware Versión
La versión del firmware que se ejecuta en la unidad. El formato es "Major-Number.Minor-Number".
Para todos los productos de clase S.

LED Estado
El indicador LED se utiliza para señalar sistemas con problemas potenciales. Un color LED de AMBER
indica un problema. Para todos los productos de clase S.

Color El color del indicador LED. O "VERDE" o "AMBAR".

Causa El motivo del color actual del LED. La causa puede aparecer como cualquier
combinación de "Desconocido", "Establecido en ÁMBAR por el sistema host", "Sensor térmico
fallo "," Fallo del ventilador "y" La temperatura supera el límite crítico ".

Temperatura
Lecturas de temperatura para componentes importantes de la unidad. Todas las lecturas están en grados C.
Es posible que no estén disponibles todas las lecturas. Para todos los productos de clase S.

Inicio Temperatura del aire en la entrada de la unidad.

Agotar Temperatura del aire en el punto de escape de la unidad.

Junta Directiva Temperatura del aire en todo el tablero de la unidad.

PSU
Lecturas de la fuente de alimentación de la unidad. Para todos los productos de clase S.

Estado Estado operativo de la fuente de alimentación. El estado de la fuente de alimentación puede ser cualquiera de los
siguiente: "Normal", "Anormal", "Alto voltaje", "Fallo del ventilador", "Disipador de calor
temperatura "," Límite de corriente "," Tensión por debajo del umbral de alarma UV ",
"Bajo voltaje", "Comando de apagado remoto I2C", "Entrada MOD_DISABLE" o "Pin corto
transición".

VOLTIOS Ajuste de voltaje de la fuente de alimentación, en voltios.

Current Consumo de corriente de la fuente de alimentación, en amperios.

Ventilador Información
Lecturas de ventilador para la unidad. Se proporciona una lectura para cada ventilador, de los cuales puede haber
muchos. Para todos los productos de clase S.

Estado El estado del ventilador, ya sea "NORMAL" o "FAILED".

Velocidad Para un ventilador saludable, la velocidad del ventilador en RPM.

Se adjunta GPU
Una lista de ID de bus PCI que corresponden a cada una de las GPU conectadas a la unidad. El autobús
Los identificadores tienen la forma "dominio: bus: dispositivo.función", en hexadecimal. Para todos los productos de clase S.

NOTAS


En Linux, nvidia-smi puede modificar los archivos del dispositivo NVIDIA si se ejecuta como root. Por favor mira
la sección correspondiente del archivo README del controlador.

La -a y -g Los argumentos ahora están en desuso a favor de -q y -i, respectivamente. Sin embargo,
los viejos argumentos todavía funcionan para esta versión.

EJEMPLOS


nvidia-smi -q
Consulta los atributos de todas las GPU una vez y visualízalos en texto sin formato en la salida estándar.

nvidia-smi --format = csv, noheader --query-gpu = uuid, modo_persistencia
Consulta UUID y modo de persistencia de todas las GPU del sistema.

nvidia-smi -q -d ECC, POTENCIA -i 0 -l 10 -f fuera.log
Consultar errores ECC y consumo de energía para GPU 0 a una frecuencia de 10 segundos,
indefinidamente y grabar en el archivo out.log.

"nvidia-smi -c 1 -i GPU-b2f5f1b745e3d23d-65a3a26d-097db358-7303e0b6-149642ff3d219f8587cde3a8"
Establezca el modo de procesamiento en "PROHIBIDO" para GPU con UUID
"GPU-b2f5f1b745e3d23d-65a3a26d-097db358-7303e0b6-149642ff3d219f8587cde3a8".

nvidia-smi -q -u -x --dtd
Consulte los atributos de todas las unidades una vez y visualícelos en formato XML con DTD incrustado para
salida estándar.

nvidia-smi --dtd -u -f nvsmi_unit.dtd
Escriba la DTD de la unidad en nvsmi_unit.dtd.

nvidia-smi -q -d RELOJES_APOYADOS
Muestra los relojes compatibles de todas las GPU.

nvidia-smi -i 0 - aplicaciones-relojes 2500,745
Configure los relojes de las aplicaciones en memoria de 2500 MHz y gráficos de 745 MHz.

CAMBIO LOG


=== Problemas conocidos ===

* En Linux, el reinicio de GPU no se puede activar cuando hay un cambio de GOM pendiente.

* En Linux GPU Reset puede no cambiar correctamente el modo ECC pendiente. Un reinicio completo puede ser
necesario para habilitar el cambio de modo.

=== Cambios entre la actualización de nvidia-smi v346 y v352 ===

* Se agregó soporte topo para mostrar afinidades por GPU

* Se agregó soporte topo para mostrar las GPU vecinas para un nivel determinado

* Se agregó soporte topo para mostrar la ruta entre dos GPU dadas

* Se agregó la línea de comandos "nvidia-smi pmon" para el monitoreo de procesos en formato de desplazamiento

* Se agregó la opción "--debug" para producir un registro de depuración cifrado para usar en el envío de errores
volver a NVIDIA

* Informes fijos de memoria usada / libre en el modo WDDM de Windows

* Las estadísticas contables se actualizan para incluir tanto los procesos en ejecución como los terminados. El
El tiempo de ejecución del proceso en ejecución se informa como 0 y se actualiza al valor real cuando el
el proceso finaliza.

=== Cambios entre la actualización de nvidia-smi v340 y v346 ===

* Informes agregados de contadores de reproducción PCIe

* Se agregó soporte para informar procesos de gráficos a través de nvidia-smi

* Informes agregados de la utilización de PCIe

* Se agregó la línea de comandos dmon para el monitoreo de dispositivos en formato de desplazamiento

* Se agregó la línea de comandos del demonio para que se ejecute en segundo plano y supervise los dispositivos como un demonio
proceso. Genera archivos de registro con fecha en / var / log / nvstats /

* Se agregó la línea de comandos de reproducción para reproducir / extraer los archivos de estadísticas generados por el demonio
del IRS

=== Cambios entre la actualización de nvidia-smi v331 y v340 ===

* Informe agregado de la información del umbral de temperatura.

* Se agregaron informes de información de marca (por ejemplo, Tesla, Quadro, etc.)

* Se agregó soporte para K40d y K80.

* Se agregaron informes de máximo, mínimo y promedio para las muestras (energía, utilización, cambios de reloj).
Ejemplo de línea de comandos: nvidia-smi -q -d power, utilization, clock

* Se agregó la interfaz de estadísticas nvidia-smi para recopilar estadísticas como energía, utilización,
cambios de reloj, eventos xid y contadores de límite de rendimiento con una noción de tiempo adjunta a cada uno
muestra. Ejemplo de línea de comando: nvidia-smi stats

* Se agregó soporte para informar métricas colectivamente en más de una GPU. Usado con coma
separados con la opción "-i". Ejemplo: nvidia-smi -i 0,1,2

* Se agregó soporte para mostrar las utilizaciones del codificador y decodificador de GPU

* Se agregó la interfaz nvidia-smi topo para mostrar la matriz de comunicación GPUDirect
(EXPERIMENTAL)

* Se agregó soporte para mostrar la ID de la placa GPU y si es una placa multiGPU o no

* Se eliminó el motivo del acelerador definido por el usuario de la salida XML

=== Cambios entre la actualización de nvidia-smi v5.319 y v331 ===

* Informe agregado de número menor.

* Se agregó el tamaño de la memoria BAR1 de informes.

* Informes agregados del firmware del chip puente.

=== Cambios entre nvidia-smi v4.319 Production y la actualización v4.319 ===

* Se agregó un nuevo interruptor: aplicaciones-relojes-permiso para cambiar los requisitos de permisos
para configurar y restablecer los relojes de las aplicaciones.

=== Cambios entre nvidia-smi v4.304 y v4.319 Production ===

* Se agregaron informes del estado de Display Active y documentación actualizada para aclarar cómo
difiere del modo de visualización y del estado activo de visualización

* Para mayor coherencia en placas con varias GPU, nvidia-smi -L siempre muestra UUID en lugar de
número de serie

* Se agregaron informes selectivos legibles por máquina. Consulte la sección OPCIONES DE CONSULTA SELECTIVA de
nvidia-smi-h

* Consultas agregadas para información de retiro de la página. Consulte --help-query-retired-pages y -d
PÁGINA_JUBILACIÓN

* Cambio de nombre de los relojes definidos por el usuario del motivo del acelerador del reloj a la configuración de los relojes de las aplicaciones

* En caso de error, los códigos de retorno tienen valores distintos de cero para cada clase de error. Ver RETORNO
Sección VALUE

* nvidia-smi -i ahora puede consultar información de GPU en buen estado cuando hay un problema con
otra GPU en el sistema

* Todos los mensajes que apuntan a un problema con un ID de bus pci de impresión de GPU de una GPU defectuosa

* Nueva bandera --loop-ms para consultar información a velocidades más altas que una vez por segundo (puede
tienen un impacto negativo en el rendimiento del sistema)

* Consultas agregadas para procesos contables. Consulte --help-query -countted-apps y -d
CONTABILIDAD

* Se agregó el límite de potencia impuesto a la salida de la consulta.

=== Cambios entre nvidia-smi v4.304 RC y v4.304 Production ===

* Informes agregados del modo de operación de GPU (GOM)

* Se agregó un nuevo interruptor --gom para configurar el modo de operación de la GPU

=== Cambios entre nvidia-smi v3.295 y v4.304 RC ===

* Salida no verbosa reformateada debido a los comentarios de los usuarios. Se eliminó la información pendiente de
mesa.

* Imprima un mensaje útil si la inicialización falla debido a que el módulo del kernel no recibe
interrumpe

* Mejor manejo de errores cuando la biblioteca compartida NVML no está presente en el sistema

* Se agregó un nuevo interruptor de aplicaciones-relojes

* Se agregó un nuevo filtro al interruptor de visualización. Ejecutar con -d SUPPORTED_CLOCKS para listar posibles
relojes en una GPU

* Cuando informe de memoria libre, calcúlelo a partir del total redondeado y la memoria usada para
que los valores se suman

* Se agregaron informes de restricciones de límite de administración de energía y límite predeterminado

* Se agregó un nuevo interruptor de límite de potencia

* Informe agregado de errores ECC de la memoria de textura

* Informes agregados de las razones del acelerador del reloj

=== Cambios entre nvidia-smi v2.285 y v3.295 ===

* Informe de errores más claro para ejecutar comandos (como cambiar el modo de cálculo)

* Cuando se ejecutan comandos en varias GPU a la vez, los errores N / A se tratan como advertencias.

* nvidia-smi -i ahora también es compatible con UUID

* El formato UUID cambió para coincidir con el estándar UUID e informará un valor diferente.

=== Cambios entre nvidia-smi v2.0 y v2.285 ===

* Informe de la versión de VBIOS.

* Se agregó -d / - indicador de visualización para filtrar partes de datos

* Informes agregados de la identificación del subsistema PCI

* Documentos actualizados para indicar que admitimos M2075 y C2075

* Informe la versión de firmware HIC HWBC con el interruptor -u

* Informar los relojes máximos (P0) junto a los relojes actuales

* Se agregó la bandera --dtd para imprimir el dispositivo o unidad DTD

* Mensaje agregado cuando el controlador NVIDIA no se está ejecutando

* Se agregaron informes de generación de enlaces PCIe (máximo y actual) y ancho de enlace (máximo y
Actual).

* Obtener el modelo de controlador pendiente funciona en usuarios que no son administradores

* Se agregó soporte para ejecutar nvidia-smi en cuentas de invitado de Windows

* La ejecución de nvidia-smi sin el comando -q generará una versión no detallada de -q en lugar de
ayuda

* Se corrigió el análisis de -l / - loop = argumento (valor predeterminado, 0, a valor grande)

* Se cambió el formato de pciBusId (a XXXX: XX: XX.X; este cambio fue visible en 280)

* El análisis del busId para el comando -i es menos restrictivo. Puede pasar 0: 2: 0.0 o
0000: 02: 00 y otras variaciones

* Se modificó el esquema de control de versiones para incluir también la "versión del controlador".

* El formato XML siempre se ajusta a DTD, incluso cuando ocurren condiciones de error

* Se agregó soporte para eventos ECC de bit simple y doble y errores XID (habilitado de manera predeterminada
con el indicador -l desactivado para el indicador -x)

* Se agregaron indicadores de reinicio del dispositivo -r --gpu-reset

* Lista agregada de procesos en ejecución de cómputo

* Cambio de nombre del estado de energía a estado de rendimiento. Existe soporte obsoleto en la salida XML
solamente.

* Número de versión de DTD actualizado a 2.0 para que coincida con la salida XML actualizada

Use alt-nvidia-361-smi en línea usando los servicios de onworks.net


Servidores y estaciones de trabajo gratuitos

Descargar aplicaciones de Windows y Linux

Comandos de Linux

Ad




×
Anuncio
❤ ️Compre, reserve o adquiera aquí: sin costo, ayuda a mantener los servicios gratuitos.