IngleseFranceseSpagnolo

Ad


Favicon di OnWorks

alt-nvidia-361-smi - Online nel cloud

Esegui alt-nvidia-361-smi nel provider di hosting gratuito OnWorks su Ubuntu Online, Fedora Online, emulatore online Windows o emulatore online MAC OS

Questo è il comando alt-nvidia-361-smi che può essere eseguito nel provider di hosting gratuito OnWorks utilizzando una delle nostre molteplici workstation online gratuite come Ubuntu Online, Fedora Online, emulatore online Windows o emulatore online MAC OS

PROGRAMMA:

NOME


nvidia-smi - Programma di interfaccia di gestione del sistema NVIDIA

SINOSSI


nvidia-smi [OPZIONE1 [ARG1]] [OPZIONE2 [ARG2]] ...

DESCRIZIONE


nvidia-smi (anche NVSMI) fornisce funzionalità di monitoraggio e gestione per ciascuno di
Dispositivi Tesla, Quadro, GRID e GeForce di NVIDIA di Fermi e architettura superiore
famiglie. I dispositivi della serie GeForce Titan sono supportati per la maggior parte delle funzioni con funzionalità molto limitate
informazioni fornite per il resto del marchio Geforce. NVSMI è una piattaforma multipiattaforma
strumento che supporta tutte le distribuzioni Linux standard supportate da driver NVIDIA, oltre a 64 bit
versioni di Windows a partire da Windows Server 2008 R2. Le metriche possono essere consumate
direttamente dagli utenti tramite stdout o fornito da file tramite formati CSV e XML per lo scripting
scopi.

Si noti che gran parte della funzionalità di NVSMI è fornita dal sottostante NVML basato su C
biblioteca. Per ulteriori informazioni su NVML, vedere il collegamento al sito Web degli sviluppatori NVIDIA riportato di seguito.
Sono disponibili anche collegamenti Python basati su NVML.

Non è garantita la retrocompatibilità dell'output di NVSMI. Tuttavia, sia NVML che
i collegamenti Python sono retrocompatibili e dovrebbero essere la prima scelta durante la scrittura
tutti gli strumenti che devono essere mantenuti tra le versioni dei driver NVIDIA.

NVML SDK: http://developer.nvidia.com/nvidia-management-library-nvml/

Python attacchi: http://pypi.python.org/pypi/nvidia-ml-py/

VERSIONI


GENERALE VERSIONI
-H, --Aiuto
Stampa le informazioni sull'utilizzo ed esci.

SOMMARIO VERSIONI
-L, --list-gpus
Elenca ciascuna delle GPU NVIDIA nel sistema, insieme ai loro UUID.

QUERY VERSIONI
-Q, --interrogazione
Visualizza le informazioni sulla GPU o sull'unità. Le informazioni visualizzate includono tutti i dati elencati nella (GPU ATTRIBUTI)
o (UNITA ' ATTRIBUTI) sezioni di questo documento. Alcuni dispositivi e/o ambienti no
supportare tutte le informazioni possibili. Tutti i dati non supportati sono indicati da un "N/A" nel
produzione. Per impostazione predefinita, vengono visualizzate le informazioni per tutte le GPU o unità disponibili. Utilizzare il -i
opzione per limitare l'output a una singola GPU o unità.

[più opzionale]
-tu, --unità
Visualizza i dati dell'unità invece dei dati della GPU. I dati dell'unità sono disponibili solo per NVIDIA S-class
Involucri Tesla.

-io, --id=ID
Visualizza i dati per una singola GPU o unità specificata. L'id specificato può essere la GPU/unità
Indice basato su 0 nell'enumerazione naturale restituita dal driver, la scheda seriale della GPU
numero, l'UUID della GPU o l'ID bus PCI della GPU (come domain:bus:device.function in hex).
Si consiglia agli utenti che desiderano coerenza di utilizzare l'UUID o l'ID bus PCI, poiché
non è garantito che l'ordine dell'enumerazione del dispositivo sia coerente tra i riavvii e la scheda
il numero di serie potrebbe essere condiviso tra più GPU sulla stessa scheda.

-f FILE, --nomefile=FILE
Reindirizza l'output della query al file specificato al posto dello stdout predefinito. Il specificato
file verrà sovrascritto.

-X, --formato-xml
Produce output XML al posto del formato leggibile dall'uomo predefinito. Sia GPU che Unit query
le uscite sono conformi ai DTD corrispondenti. Questi sono disponibili tramite il --dtd bandiera.

--dtd
Usa con -x. Incorpora il DTD nell'output XML.

--debug=FILE
Produce un registro di debug crittografato da utilizzare per inviare bug a NVIDIA.

-d GENERE, --display=TIPO
Visualizza solo le informazioni selezionate: MEMORIA, UTILIZZAZIONE, ECC, TEMPERATURA, POTENZA, OROLOGIO,
COMPUTE, PIDS, PERFORMANCE, SUPPORTED_CLOCKS, PAGE_RETIREMENT, ACCOUNTING I flag possono essere
combinato con virgola es. "MEMORIA,ECC". Lo sono anche i dati di campionamento con max, min e avg
restituito per i tipi di visualizzazione POWER, UTILIZATION e CLOCK. Non funziona con -u/--unit o
-x/--flag in formato xml.

-l SEC, --loop=SEC
Riporta continuamente i dati delle query all'intervallo specificato, anziché l'impostazione predefinita di solo
una volta. L'applicazione dormirà tra le query. Nota che su Linux ECC errore o XID
gli eventi di errore verranno stampati durante il periodo di sospensione se il -x bandiera non è stata specificata.
Premendo Ctrl+C in qualsiasi momento si interromperà il ciclo, che altrimenti verrà eseguito indefinitamente.
Se non viene specificato alcun argomento per il -l viene utilizzato un intervallo predefinito di 5 secondi.

SELETTIVO QUERY VERSIONI
Consente al chiamante di passare un elenco esplicito di proprietà da interrogare.

[uno di]
--query-gpu=
Informazioni sulla GPU. Passa l'elenco separato da virgole delle proprietà che desideri interrogare. per esempio.
--query-gpu=pci.bus_id,persistence_mode. Chiama --help-query-gpu per maggiori informazioni.

--query-supported-clocks=
Elenco degli orologi supportati. Chiama --help-query-supported-clocks per maggiori informazioni.

--query-compute-apps=
Elenco dei processi di calcolo attualmente attivi. Chiama --help-query-compute-apps per maggiori informazioni.

--query-accounted-apps=
Elenco dei processi di calcolo contabilizzati. Chiama --help-query-accounted-apps per maggiori informazioni.

--query-pagine-ritirate=
Elenco delle pagine di memoria del dispositivo GPU che sono state ritirate. Chiama --help-query-retired-pages
per maggiori informazioni.

[obbligatorio]
--formato=
Elenco separato da virgole di opzioni di formato:

· csv - valori separati da virgola (OBBLIGATORIO)

· noheader - salta la prima riga con le intestazioni di colonna

· nounits - non stampa le unità per i valori numerici

[più in qualsiasi di]
-io, --id=ID
Visualizza i dati per una singola GPU specificata. L'ID specificato potrebbe essere l'indice basato su 0 della GPU
nell'enumerazione naturale restituita dal driver, il numero di serie della scheda GPU, il
UUID della GPU o ID del bus PCI della GPU (come dominio:bus:device.function in formato esadecimale). È
si consiglia agli utenti che desiderano coerenza di utilizzare l'UUID o l'ID del bus PCI, a partire dal dispositivo
Non è garantita la coerenza dell'ordine di enumerazione tra i riavvii e il seriale della scheda
numero potrebbe essere condiviso tra più GPU sulla stessa scheda.

-f FILE, --nomefile=FILE
Reindirizza l'output della query al file specificato al posto dello stdout predefinito. Il specificato
file verrà sovrascritto.

-l SEC, --loop=SEC
Riporta continuamente i dati delle query all'intervallo specificato, anziché l'impostazione predefinita di solo
una volta. L'applicazione dormirà tra le query. Nota che su Linux ECC errore o XID
gli eventi di errore verranno stampati durante il periodo di sospensione se il -x bandiera non è stata specificata.
Premendo Ctrl+C in qualsiasi momento si interromperà il ciclo, che altrimenti verrà eseguito indefinitamente.
Se non viene specificato alcun argomento per il -l viene utilizzato un intervallo predefinito di 5 secondi.

-lm ms, --loop-ms=ms
Uguale a -l,--loop ma in millisecondi.

DISPOSITIVO MODIFICA VERSIONI
[qualunque prima di]
-pomeriggio, --persistence-mode=MODALITÀ
Imposta la modalità di persistenza per le GPU di destinazione. Vedi il (GPU ATTRIBUTI) sezione per a
descrizione della modalità di persistenza. Richiede radice. Influirà su tutte le GPU a meno che non si tratti di una singola GPU
è specificato utilizzando il -i discussione. L'effetto di questa operazione è immediato. Però,
non persiste tra i riavvii. Dopo ogni riavvio, la modalità di persistenza sarà predefinita su
"Disabilitato". Disponibile solo su Linux.

-e, --ecc-config=CONFIG
Imposta la modalità ECC per le GPU di destinazione. Vedi il (GPU ATTRIBUTI) sezione per una descrizione
della modalità ECC. Richiede radice. Influirà su tutte le GPU a meno che non venga specificata una singola GPU utilizzando
, il -i discussione. Questa impostazione ha effetto dopo il successivo riavvio ed è persistente.

-P, --reset-ecc-errors=TIPO
Reimposta i contatori di errori ECC per le GPU di destinazione. Vedi il (GPU ATTRIBUTI) sezione per a
descrizione dei tipi di contatori di errori ECC. Gli argomenti disponibili sono 0|VOLATILE o
1|AGGREGATO. Richiede radice. Influirà su tutte le GPU a meno che non venga specificata una singola GPU utilizzando
, il -i discussione. L'effetto di questa operazione è immediato.

-C, --comute-mode=MODALITÀ
Imposta la modalità di calcolo per le GPU di destinazione. Vedi il (GPU ATTRIBUTI) sezione per a
descrizione della modalità di calcolo. Richiede radice. Influirà su tutte le GPU a meno che non lo sia una singola GPU
specificato utilizzando il -i discussione. L'effetto di questa operazione è immediato. Tuttavia, è
non persiste tra i riavvii. Dopo ogni riavvio, la modalità di calcolo verrà reimpostata su "DEFAULT".

-dm GENERE, --driver-model=TIPO
-fdm GENERE, --force-driver-model=TIPO
Abilita o disabilita il modello del driver TCC. Solo per Windows. Richiede privilegi di amministratore.
-dm fallirà se è collegato un display, ma -fdm costringerà il modello del driver a cambiare.
Influirà su tutte le GPU a meno che non venga specificata una singola GPU utilizzando il -i discussione. Un riavvio è
necessario affinché il cambiamento avvenga. Vedere Guidatore Modello per maggiori informazioni su Windows
modelli di guida.

--gom=MODALITÀ
Imposta la modalità operativa della GPU: 0/ALL_ON, 1/COMPUTE, 2/LOW_DP Supportato su GK110 M-class e X-
prodotti Tesla di classe della famiglia Kepler. Non supportato su Quadro e Tesla Classe C
prodotti. LOW_DP e ALL_ON sono le uniche modalità supportate sui dispositivi GeForce Titan.
Richiede privilegi di amministratore. Vedere GPU Funzionamento Moda per ulteriori informazioni su GOM.
Le modifiche GOM diventano effettive dopo il riavvio. Il requisito di riavvio potrebbe essere rimosso nel file
futuro. I GOM di solo calcolo non supportano WDDM (modello driver display Windows)

-R, --gpu-reset
Attiva un ripristino della GPU. Può essere utilizzato per cancellare lo stato HW e SW della GPU in situazioni in cui
altrimenti richiederebbe il riavvio della macchina. In genere utile se si verifica un errore ECC a doppio bit
si è verificato. Richiede -i passare al dispositivo specifico di destinazione. Richiede root. Non può esserci
qualsiasi applicazione che utilizzi questo particolare dispositivo (ad esempio applicazione CUDA, applicazione grafica
come il server X, il monitoraggio dell'applicazione come altre istanze di nvidia-smi). Anche lì
non possono essere applicazioni di elaborazione in esecuzione su altre GPU nel sistema. Solo acceso
dispositivi supportati della famiglia Fermi e Kepler in esecuzione su Linux.

Non è garantito che il ripristino della GPU funzioni in tutti i casi. Non è raccomandato per la produzione
ambienti in questo momento. In alcune situazioni potrebbero essere presenti componenti HW sulla scheda
che non riescono a tornare allo stato iniziale dopo la richiesta di ripristino. Questo è di più
è probabile che venga visto sui prodotti della generazione Fermi rispetto a Kepler, e più probabile che venga visto se
il ripristino viene eseguito su una GPU bloccata.

Dopo un ripristino, si consiglia di verificare lo stato della GPU prima di procedere ulteriormente
utilizzo. Lo strumento nvidia-healthmon è una buona scelta per questo test. Se la GPU non è sana
è necessario avviare un ripristino completo spegnendo e riaccendendo il nodo.

Visita http://developer.nvidia.com/gpu-deployment-kit per scaricare GDK e nvidia-
salutemon.

-AC, --applications-clocks=MEM_CLOCK,GRAPHICS_CLOCK
Specifica il massimo clock in coppia (ad es. 2000,800) che definisce le GPU
velocità durante l'esecuzione di applicazioni su una GPU. Per i dispositivi Tesla della famiglia Kepler+ e
GeForce Titan basata su Maxwell. Richiede root a meno che le restrizioni non vengano allentate con -acp
comando..

-razza, --reset-applicazioni-orologi
Ripristina gli orologi delle applicazioni al valore predefinito. Per i dispositivi Tesla della serie Kepler+
famiglia e GeForce Titan basata su Maxwell. Richiede root a meno che le restrizioni non vengano allentate
con il comando -acp.

-acp, --applications-clocks-permission=MODALITÀ
Scegli se gli orologi delle applicazioni possono essere modificati da tutti gli utenti o solo da root. Disponibile
gli argomenti sono 0|SENZA LIMITAZIONE, 1|RISERVATO. Per i dispositivi Tesla della famiglia Kepler+ e
GeForce Titan basata su Maxwell. Richiede root.

-pl, --power-limit=LIMITE_POTENZA
Specifica il limite massimo di potenza in watt. Accetta numeri interi e in virgola mobile. Soltanto
sui dispositivi supportati dalla famiglia Kepler. Richiede i privilegi di amministratore. Bisogni di valore
essere compreso tra Min e Max Power Limit come riportato da nvidia-smi.

-sono, --accounting-mode=MODALITÀ
Abilita o disabilita la contabilità GPU. Con GPU Accounting è possibile tenere traccia dell'utilizzo di
risorse per tutta la durata di vita di un singolo processo. Solo sui dispositivi supportati da Kepler
famiglia. Richiede privilegi di amministratore. Gli argomenti disponibili sono 0|DISABILITATO o
1|ABILITATO.

-caa, --clear-account-apps
Cancella tutti i processi contabilizzati finora. Solo sui dispositivi supportati della famiglia Kepler.
Richiede privilegi di amministratore.

--auto-boost-default=MODALITÀ
Imposta la policy di potenziamento automatico predefinita su 0/DISABLED o 1/ENABLED, applicando solo la modifica
dopo l'uscita dell'ultimo client boost. Solo su alcuni dispositivi Tesla della serie Kepler+
famiglia e dispositivi GeForce basati su Maxwell. Richiede radice.

--auto-boost-default-force=MODALITÀ
Imposta la policy di potenziamento automatico predefinita su 0/DISABLED o 1/ENABLED, applicando la modifica
subito. Solo su alcuni dispositivi Tesla della famiglia Kepler+ e basati su Maxwell
Dispositivi GeForce. Richiede root.

--auto-boost-permission=MODALITÀ
Consenti il ​​controllo non amministratore/root sulla modalità di potenziamento automatico. Gli argomenti disponibili sono
0|SENZA LIMITAZIONE, 1|RISERVATO. Solo su alcuni dispositivi Tesla della famiglia Kepler+ e
Dispositivi GeForce basati su Maxwell. Richiede root.

[più opzionale]
-io, --id=ID
Modifica una singola GPU specificata. L'id specificato può essere l'indice basato su 0 della GPU/Unità in
l'enumerazione naturale restituita dal driver, il numero di serie della scheda della GPU, il numero di serie della GPU
UUID, o l'ID bus PCI della GPU (come domain:bus:device.function in hex). È raccomandato
che gli utenti che desiderano coerenza utilizzino l'UUID o l'ID bus PCI, poiché l'enumerazione del dispositivo
non è garantito che l'ordine sia coerente tra i riavvii e il numero di serie della scheda potrebbe
essere condiviso tra più GPU sulla stessa scheda.

UNITA ' MODIFICA VERSIONI
-T, --toggle-led=STATO
Impostare lo stato dell'indicatore LED sulla parte anteriore e posteriore dell'unità sul colore specificato. Vedere
il (UNITA ' ATTRIBUTI) per una descrizione degli stati dei LED. I colori consentiti sono
0|VERDE e 1|AMBRA. Richiede radice.

[più opzionale]
-io, --id=ID
Modifica una singola unità specificata. L'id specificato è l'indice a base 0 dell'unità nel
enumerazione naturale restituita dal conducente.

MOSTRARE DTD VERSIONI
--dtd
Dispositivo di visualizzazione o unità DTD.

[più opzionale]
-f FILE, --nomefile=FILE
Reindirizza l'output della query al file specificato al posto dello stdout predefinito. Il specificato
file verrà sovrascritto.

-tu, --unità
Display Unit DTD invece del dispositivo DTD.

stats
Visualizza informazioni statistiche sulla GPU. Usa "nvidia-smi stats -h" per ulteriori informazioni
informazione. Solo Linux.

topo
Visualizza le informazioni sulla topologia del sistema. Usa "nvidia-smi topo -h" per ulteriori informazioni
informazione. Solo Linux. Mostra tutte le GPU che NVML è in grado di rilevare tranne l'affinità della CPU
le informazioni verranno mostrate solo per GPU con Kepler o architetture più recenti. Nota: GPU
l'enumerazione è la stessa di NVML.

scolare
Visualizza e modifica gli stati di drenaggio della GPU. Utilizzare "nvidia-smi drain -h" per ulteriori informazioni.
Solo Linux.

nvlink
Visualizza le informazioni su nvlink. Utilizzare "nvidia-smi nvlink -h" per ulteriori informazioni.

orologi
Interroga e controlla il comportamento del clock. Attualmente, questo riguarda solo il boost sincronizzato.
Utilizzare "nvidia-smi clocks --help" per ulteriori informazioni.

RITORNO VALORE


Il codice di ritorno riflette se l'operazione è riuscita o meno e qual è stato il motivo
fallimento.

· Codice di ritorno 0 - Successo

· Codice di ritorno 2 - Un argomento o flag fornito non è valido

· Codice di ritorno 3: l'operazione richiesta non è disponibile sul dispositivo di destinazione

· Codice di ritorno 4 - L'utente corrente non dispone dell'autorizzazione per accedere a questo dispositivo o
eseguire questa operazione

· Codice di ritorno 6 - Una query per trovare un oggetto non ha avuto successo

· Codice di ritorno 8 - I cavi di alimentazione esterni di un dispositivo non sono collegati correttamente

· Codice di ritorno 9 - Il driver NVIDIA non è caricato

· Codice di ritorno 10: il kernel NVIDIA ha rilevato un problema di interruzione con una GPU

· Codice di ritorno 12 - Impossibile trovare o caricare la libreria condivisa NVML

· Codice di ritorno 13 - La versione locale di NVML non implementa questa funzione

· Codice di ritorno 14 - infoROM è danneggiato

· Codice di ritorno 15 - La GPU è caduta dal bus o è caduta in altro modo
inaccessibile

· Codice di ritorno 255 - Si è verificato un altro errore o errore interno del driver

GPU ATTRIBUTI


Il seguente elenco descrive tutti i possibili dati restituiti dal -q opzione di interrogazione del dispositivo.
Se non diversamente indicato, tutti i risultati numerici sono in base 10 e senza unità.

Timestamp
Il timestamp di sistema corrente al momento in cui è stato invocato nvidia-smi. Il formato è "Giorno della settimana
Mese Giorno HH:MM:SS Anno".

Guidatore Versione
La versione del driver video NVIDIA installato. Questa è una stringa alfanumerica.

Attached GPU
Il numero di GPU NVIDIA nel sistema.

Prodotto Nome
Il nome ufficiale del prodotto della GPU. Questa è una stringa alfanumerica. Per tutti i prodotti.

Dsiplay Moda
Un flag che indica se è attualmente connesso un display fisico (ad esempio un monitor).
uno qualsiasi dei connettori della GPU. "Abilitato" indica un display collegato. "Disabilitato"
indica diversamente.

Dsiplay Attivo
Un flag che indica se un display è inizializzato sulla GPU (ad esempio la memoria è
assegnato sul dispositivo per la visualizzazione). Il display può essere attivo anche quando non lo è il monitor
attaccato fisicamente. "Abilitato" indica un display attivo. Indica "Disabilitato".
altrimenti.

Persistenza Moda
Un flag che indica se la modalità di persistenza è abilitata per la GPU. Il valore è o
"Abilitato" o "Disabilitato". Quando la modalità di persistenza è abilitata, il driver NVIDIA rimane
caricato anche quando non esistono client attivi, come X11 o nvidia-smi. Questo riduce al minimo il
latenza di caricamento del driver associata all'esecuzione di app dipendenti, come i programmi CUDA. Per
tutti i prodotti compatibili con CUDA. Solo Linux.

Contabilità Moda
Un flag che indica se la modalità di contabilità è abilitata per il valore GPU è Quando
la contabilità è abilitata, le statistiche vengono calcolate per ogni processo di calcolo in esecuzione su
GPU. Le statistiche possono essere interrogate durante il ciclo di vita o dopo la conclusione del processo.
Il tempo di esecuzione del processo viene segnalato come 0 mentre il processo è in stato di esecuzione e
aggiornato al tempo di esecuzione effettivo dopo che il processo è terminato. Vedi --help-query-
app contabilizzate per maggiori informazioni.

Contabilità Moda Buffer Taglia
Restituisce la dimensione del buffer circolare che contiene l'elenco dei processi che possono essere interrogati
per le statistiche contabili. Questo è il numero massimo di processi che le informazioni contabili
verrà archiviato prima che le informazioni sui processi più vecchi vengano sovrascritte
informazioni sui nuovi processi.

Guidatore Modello
Su Windows, sono supportati i modelli di driver TCC e WDDM. Il modello del driver può essere cambiato
con il (-dm) O (-fdm) bandiere. Il modello del driver TCC è ottimizzato per il calcolo
applicazioni. I tempi di avvio del kernel di IE saranno più rapidi con TCC. Il modello di driver WDDM
è progettato per applicazioni grafiche e non è consigliato per applicazioni di elaborazione.
Linux non supporta più modelli di driver e avrà sempre il valore "N/A".

Corrente Il modello di driver attualmente in uso. Sempre "N/A" su Linux.

Attesa Pagamento Il modello di driver che verrà utilizzato al prossimo riavvio. Sempre "N/A" acceso
Linux.

Seriale Numero
Questo numero corrisponde al numero di serie stampato fisicamente su ciascuna scheda. È un global
valore alfanumerico univoco e immutabile.

GPU UUID
Questo valore è l'identificatore alfanumerico immutabile univoco globale della GPU. lo fa
non corrispondere ad alcuna etichetta fisica sulla scheda.

Minore Numero
Il numero minore per il dispositivo è tale che il file del nodo del dispositivo Nvidia per ciascuna GPU lo farà
hanno la forma /dev/nvidia[numero minore]. Disponibile solo su piattaforma Linux.

VBIOS Versione
Il BIOS della scheda GPU.

MultiGPU Tavola
Se questa GPU fa parte o meno di una scheda multiGPU.

Tavola ID
L'ID univoco della scheda assegnato dall'autista. Se due o più GPU hanno lo stesso ID scheda
e il campo "MultiGPU" sopra è vero, le GPU sono sulla stessa scheda.

Informazioni Versione
Numeri di versione per ogni oggetto nell'archivio informazioni della scheda GPU. L'informazione è a
piccolo archivio persistente di dati di configurazione e stato per la GPU. Tutta la versione informativa
i campi sono numerici. Può essere utile conoscere questi numeri di versione perché alcune GPU
le funzionalità sono disponibili solo con le informazioni di una determinata versione o superiore.

Se uno qualsiasi dei campi sottostanti restituisce Errore sconosciuto, il controllo aggiuntivo di verifica Inform è
eseguita e viene visualizzato il messaggio di avviso appropriato.

Immagine Versione Versione globale dell'immagine infoROM. Versione dell'immagine proprio come la versione VBIOS
descrive in modo univoco la versione esatta dell'infoROM flashata sulla scheda
in contrasto con la versione dell'oggetto infoROM che è solo un indicatore del supporto
caratteristiche.

OEM Oggetto Versione per i dati di configurazione OEM.

ECC Oggetto Versione per la registrazione dei dati ECC.

Potenza Oggetto Versione per i dati di gestione dell'alimentazione.

GPU Funzionamento Moda
GOM consente di ridurre il consumo energetico e ottimizzare il throughput della GPU disabilitando le funzionalità della GPU.

Ogni GOM è progettato per soddisfare le esigenze specifiche dell'utente.

In modalità "All On" tutto è abilitato e funziona alla massima velocità.

La modalità "Calcolo" è progettata per eseguire solo attività di calcolo. Le operazioni grafiche no
consentito.

La modalità "Low Double Precision" è progettata per l'esecuzione di applicazioni grafiche che non lo fanno
richiedono doppia precisione a larghezza di banda elevata.

GOM può essere modificato con il (--Gom) bandiera.

Supportato sui prodotti Tesla GK110 di classe M e X della famiglia Kepler. Non
supportato sui prodotti Quadro e Tesla di classe C. Le modalità Low Double Precision e All On lo sono
le uniche modalità disponibili per i prodotti GeForce Titan supportati.

Corrente Il GOM attualmente in uso.

Attesa Pagamento Il GOM che verrà utilizzato al prossimo riavvio.

PCI
Informazioni PCI di base per il dispositivo. Alcune di queste informazioni possono cambiare ogni volta che le carte sono
aggiunto/rimosso/spostato in un sistema. Per tutti i prodotti.

Autobus Numero bus PCI, in esadecimale

Dispositivo Numero dispositivo PCI, in esadecimale

Dominio Numero di dominio PCI, in esadecimale

Dispositivo Id ID dispositivo del fornitore PCI, in esadecimale

Sub Sistema Id ID sistema secondario PCI, in esadecimale

Autobus Id ID bus PCI come "domain:bus:device.function", in esadecimale

GPU Link informazioni
La generazione del collegamento PCIe e la larghezza del bus

Corrente La generazione e la larghezza del collegamento corrente. Questi possono essere ridotti quando la GPU
non è in uso.

Massimo La massima generazione e larghezza di collegamento possibili con questa GPU e questo sistema
configurazione. Ad esempio, se la GPU supporta una generazione PCIe superiore
rispetto al sistema supporta quindi questo segnala la generazione PCIe del sistema.

Ponte chip
Informazioni relative al Bridge Chip sul dispositivo. È presente solo il firmware del chip bridge
su alcune schede e potrebbe essere visualizzato "N/A" per alcune schede multiGPU più recenti.

Tipologia Il tipo di chip del ponte. Segnalato come N/A se non esiste.

Firmware Versione
La versione firmware del chip bridge. Segnalato come N/A se non esiste.

Replay contrastare
Questo è il contatore interno che registra vari errori sul bus PCIe.

Tx Throughput
Il throughput di trasmissione incentrato sulla GPU attraverso il bus PCIe in MB/s negli ultimi 20 ms.
Supportato solo su architetture Maxwell e successive.

Rx Throughput
Il throughput di ricezione incentrato sulla GPU sul bus PCIe in MB/s negli ultimi 20 ms. Soltanto
supportato su architetture Maxwell e successive.

Fan Velocità
Il valore della velocità della ventola è la percentuale della velocità massima attualmente raggiunta dalla ventola del dispositivo
destinato a correre a. Varia da 0 a 100%. Nota: la velocità riportata è quella prevista
velocità della ventola. Se la ventola è fisicamente bloccata e non può girare, questa uscita non lo farà
corrisponda alla velocità effettiva della ventola. Molte parti non riportano la velocità della ventola perché si basano su
raffreddamento tramite ventole nell'ambiente circostante. Per tutti i prodotti discreti con dedicato
fan.

Prestazione Regione / Stato
Lo stato attuale delle prestazioni per la GPU. Gli stati vanno da P0 (prestazioni massime) a
P12 (prestazioni minime).

Orologi Acceleratore Motivi
Recupera informazioni sui fattori che riducono la frequenza degli orologi. Solo su
dispositivi Tesla supportati dalla famiglia Kepler.

Se tutti i motivi dell'acceleratore vengono restituiti come "Non attivo", significa che gli orologi stanno funzionando come
alto possibile.

Idle Nulla è in esecuzione sulla GPU e gli orologi stanno scendendo allo stato Idle.
Questo limitatore può essere rimosso in una versione successiva.

Applicazioni Orologi Configurazione
Gli orologi della GPU sono limitati dall'impostazione degli orologi delle applicazioni. Per esempio. può essere cambiato
utilizzando nvidia-smi --applications-clocks=

SW Potenza berretto L'algoritmo SW Power Scaling sta riducendo i clock al di sotto dei clock richiesti
perché la GPU consuma troppa energia. Ad esempio, il limite del limite di potenza SW può
essere modificato con nvidia-smi --power-limit=

HW Rallenta HW Slowdown (riduzione dei core clock di un fattore 2 o più) è attivato.

Questo è un indicatore di:
* La temperatura è troppo alta
* L'asserzione del freno di alimentazione esterno viene attivata (ad es. dall'alimentazione del sistema)
la fornitura)
* L'assorbimento di potenza è troppo alto e la protezione Fast Trigger sta riducendo i clock

Sconosciuto Un altro fattore non specificato è la riduzione degli orologi.

FB Memorie Impiego
Informazioni sulla memoria frame buffer integrata. La memoria totale segnalata è influenzata dallo stato ECC.
Se ECC è abilitato, la memoria totale disponibile diminuisce di diversi punti percentuali, a causa di
bit di parità richiesti. Il driver può anche riservare una piccola quantità di memoria per la memoria interna
utilizzo, anche senza lavoro attivo sulla GPU. Per tutti i prodotti.

Totale Dimensione totale della memoria FB.

Usato Dimensione utilizzata della memoria FB.

Gratis Dimensione disponibile della memoria FB.

BAR1 Memorie Impiego
BAR1 viene utilizzato per mappare l'FB (memoria del dispositivo) in modo che sia possibile accedervi direttamente dalla CPU
o da dispositivi di terze parti (peer-to-peer sul bus PCIe).

Totale Dimensione totale della memoria BAR1.

Usato Dimensione utilizzata della memoria BAR1.

Gratis Dimensione disponibile della memoria BAR1.

Calcolare Moda
Il flag della modalità di calcolo indica se le applicazioni di calcolo singole o multiple possono
eseguire sulla GPU.

"Predefinito" significa che sono consentiti più contesti per dispositivo.

"Processo esclusivo" significa che è consentito un solo contesto per dispositivo, utilizzabile da più utenti
fili alla volta.

"Proibito" significa che non sono consentiti contesti per dispositivo (nessuna app di calcolo).

"EXCLUSIVE_PROCESS" è stato aggiunto in CUDA 4.0. Le versioni precedenti di CUDA ne supportavano solo una
modalità esclusiva, che equivale a "EXCLUSIVE_THREAD" in CUDA 4.0 e oltre.

Per tutti i prodotti compatibili con CUDA.

utilizzo
I tassi di utilizzo indicano l'impegno di ciascuna GPU nel tempo e possono essere utilizzati per determinare come
molto un'applicazione utilizza le GPU nel sistema.

Nota: durante l'inizializzazione del driver quando ECC è abilitato è possibile vedere un valore elevato di GPU e memoria
Letture di utilizzo. Ciò è causato dal meccanismo di pulizia della memoria ECC eseguito
durante l'inizializzazione del driver.

GPU Percentuale di tempo nell'ultimo periodo campione durante il quale si sono verificati uno o più
kernel era in esecuzione sulla GPU. Il periodo campione può essere compreso tra 1
secondo e 1/6 di secondo a seconda del prodotto.

Memorie Percentuale di tempo nell'ultimo periodo campione durante il quale globale (dispositivo)
la memoria veniva letta o scritta. Il periodo campione può essere compreso tra 1
secondo e 1/6 di secondo a seconda del prodotto.

Codificatore Percentuale di tempo nell'ultimo periodo campione durante il quale è stato visualizzato il video della GPU
veniva utilizzato il codificatore. La frequenza di campionamento è variabile e può essere ottenuta
direttamente tramite l'API nvmlDeviceGetEncoderUtilization()

decoder Percentuale di tempo nell'ultimo periodo campione durante il quale è stato visualizzato il video della GPU
veniva utilizzato il decodificatore. La frequenza di campionamento è variabile e può essere ottenuta
direttamente tramite l'API nvmlDeviceGetDecoderUtilization()

ecc Moda
Un flag che indica se il supporto ECC è abilitato. Può essere "Abilitato" o
"Disabilitato". Le modifiche alla modalità ECC richiedono un riavvio. Richiede la versione dell'oggetto ECC di Inform
1.0 o versioni successive.

Corrente La modalità ECC in cui la GPU sta attualmente operando.

Attesa Pagamento La modalità ECC in cui opererà la GPU dopo il prossimo riavvio.

ECC errori
Le GPU NVIDIA possono fornire conteggi di errori per vari tipi di errori ECC. Alcuni errori ECC sono
a singolo o doppio bit, in cui vengono corretti gli errori a singolo bit e gli errori a doppio bit
sono incorreggibili. Gli errori di memoria della trama possono essere correggibili tramite reinvio o non correggibili
se il reinvio fallisce. Questi errori sono disponibili su due scale temporali (volatile e
aggregato). Gli errori ECC a bit singolo vengono corretti automaticamente dall'hardware e non risultano
nella corruzione dei dati. Gli errori a doppio bit vengono rilevati ma non corretti. Si prega di consultare l'ECC
documenti sul Web per informazioni sul comportamento dell'applicazione di calcolo in caso di doppio bit
si verificano errori. I contatori di errori volatili tengono traccia del numero di errori rilevati dall'ultimo
carico del conducente. I conteggi degli errori aggregati persistono indefinitamente e agiscono quindi per tutta la vita
contrastare.

Una nota sui conteggi volatili: su Windows questa è una volta per avvio. Su Linux questo può essere di più
frequente. Su Linux il driver viene scaricato quando non esistono client attivi. Quindi, se
la modalità persistenza è abilitata o c'è sempre un client driver attivo (es. X11), quindi
Linux vede anche il comportamento per avvio. In caso contrario, i conteggi volatili vengono reimpostati ogni volta che viene eseguito un calcolo
l'app viene eseguita.

I prodotti Tesla e Quadro della famiglia Fermi e Kepler possono visualizzare l'errore ECC totale
conteggi, nonché una ripartizione degli errori in base alla posizione sul chip. Le posizioni sono
descritto sotto. I dati basati sulla posizione per il conteggio degli errori aggregati richiedono Inform ECC
oggetto versione 2.0. Tutti gli altri conteggi ECC richiedono la versione 1.0 dell'oggetto ECC.

Dispositivo Memorie Errori rilevati nella memoria globale del dispositivo.

Registrati Compila il Errori rilevati nella memoria del file di registro.

L1 Cache Errori rilevati nella cache L1.

L2 Cache Errori rilevati nella cache L2.

Texture Memorie Errori di parità rilevati nella memoria delle texture.

Totale Errori totali rilevati sull'intero chip. Somma di Dispositivo Memorie, Registrati
Compila il , L1 Cache, L2 Cache ed Texture Memorie.

Pagina Pensionamento
Le GPU NVIDIA possono ritirare pagine di memoria del dispositivo GPU quando diventano inaffidabili. Questo può
si verificano quando si verificano più errori ECC a bit singolo per la stessa pagina o su un ECC a doppio bit
errore. Quando una pagina viene ritirata, il driver NVIDIA la nasconderà in modo tale che nessun driver, o
le allocazioni di memoria dell'applicazione possono accedervi.

Doppio Po ECC Il numero di pagine di memoria del dispositivo GPU che sono state ritirate a causa di un
errore ECC a doppio bit.

Singolo Po ECC Il numero di pagine di memoria del dispositivo GPU che sono state ritirate a causa di
più errori ECC a bit singolo.

Attesa Pagamento Controlla se eventuali pagine di memoria del dispositivo GPU sono in attesa di ritiro al prossimo riavvio.
Le pagine in attesa di ritiro possono ancora essere allocate e potrebbero causare ulteriori problemi
problemi di affidabilità.

Temperatura
Letture dai sensori di temperatura sulla scheda. Tutte le letture sono in gradi C. Non tutte
i prodotti supportano tutti i tipi di lettura. In particolare, i prodotti in moduli fattori di forma che
fare affidamento sulle ventole del case o sul raffreddamento passivo di solito non fornisce letture della temperatura. Vedere
di seguito per le restrizioni.

GPU Temperatura della GPU centrale. Per tutti i prodotti discreti e di classe S.

chiusura Temp La temperatura alla quale una GPU si spegnerà.

Rallenta Temp La temperatura alla quale una GPU inizierà a rallentare per poterlo fare
cool.

Potenza Letture
Le letture della potenza aiutano a far luce sull'attuale consumo energetico della GPU e sui fattori
che influiscono su tale utilizzo. Quando la gestione dell'alimentazione è abilitata, la GPU limita il consumo di energia sotto
carico per rientrare in un inviluppo di potenza predefinito manipolando le prestazioni correnti
stato. Vedi sotto per i limiti di disponibilità.

Potenza Regione / Stato Power State è deprecato ed è stato rinominato in Performance State in
2.285. Per mantenere la compatibilità XML, in formato XML Performance State è
elencato in entrambi i luoghi.

Potenza Management
Un flag che indica se la gestione dell'alimentazione è abilitata. o
"Supportato" o "N/D". Richiede l'oggetto Inform PWR versione 3.0 o successiva o
dispositivo Keplero.

Potenza Disegnare L'ultimo assorbimento di potenza misurato per l'intera scheda, in watt. Soltanto
disponibile se è supportata la gestione dell'alimentazione. Questa lettura è accurata per
entro +/- 5 watt. Richiede l'oggetto Inform PWR versione 3.0 o successiva o
dispositivo Keplero.

Potenza Limitare Il limite di potenza del software, in watt. Impostato da software come nvidia-smi.
Disponibile solo se è supportata la gestione dell'alimentazione. Richiede Inform PWR
versione dell'oggetto 3.0 o successiva o dispositivo Kepler. Sui dispositivi Kepler Alimentazione
Il limite può essere regolato utilizzando gli interruttori -pl,--power-limit=.

Imposto Potenza Limitare
Il limite di potenza dell'algoritmo di gestione dell'alimentazione, in watt. Pensione totale
l'assorbimento di potenza è manipolato dall'algoritmo di gestione dell'alimentazione in modo tale che
rimane sotto questo valore. Questo limite è il minimo di vari limiti simili
come limite del software sopra elencato. Disponibile solo se lo è la gestione dell'alimentazione
supportato. Richiede un dispositivo Kepler.

Predefinito Potenza Limitare
Il limite di potenza dell'algoritmo di gestione dell'alimentazione predefinito, in watt. Potenza
Il limite verrà riportato al limite di potenza predefinito dopo lo scarico del driver. Solo su
dispositivi supportati dalla famiglia Kepler.

Min Potenza Limitare
Il valore minimo in watt su cui è possibile impostare il limite di potenza. Solo su
dispositivi supportati dalla famiglia Kepler.

Max Potenza Limitare
Il valore massimo in watt su cui è possibile impostare il limite di potenza. Solo su
dispositivi supportati dalla famiglia Kepler.

Orologi
Frequenza corrente alla quale sono in esecuzione parti della GPU. Tutte le letture sono in MHz.

Grafica Frequenza attuale dell'orologio grafico (shader).

SM Frequenza attuale del clock SM (Streaming Multiprocessor).

Memorie Frequenza attuale del clock di memoria.

Video Frequenza attuale degli orologi video (encoder + decoder).

Applicazioni Orologi
Frequenza specificata dall'utente alla quale verranno eseguite le applicazioni. Può essere modificato con
[-ac | --applications-clocks].

Grafica Frequenza specificata dall'utente dell'orologio grafico (shader).

Memorie Frequenza specificata dall'utente del clock di memoria.

Predefinito Applicazioni Orologi
Frequenza predefinita alla quale verranno eseguite le applicazioni. Gli orologi dell'applicazione possono essere
cambiato con [-ac | --applications-clocks] interruttori. Gli orologi dell'applicazione possono essere impostati su
predefinito utilizzando [-rac | --reset-applications-clocks].

Grafica Frequenza predefinita dell'orologio grafico (shader) delle applicazioni.

Memorie Frequenza predefinita dell'orologio della memoria delle applicazioni.

Max Orologi
Frequenza massima alla quale le parti della GPU sono progettate per l'esecuzione. Tutte le letture sono in MHz.

Sulle GPU della famiglia Fermi gli attuali orologi P0 (riportati nella sezione Orologi) possono differire
clock massimi di pochi MHz.

Grafica Frequenza massima del clock grafico (shader).

SM Frequenza massima del clock SM (Streaming Multiprocessor).

Memorie Frequenza massima del clock di memoria.

Video Frequenza massima del clock video (encoder + decoder).

Orologio Politica sui Resi
Impostazioni specificate dall'utente per modifiche automatiche del clock come il potenziamento automatico.

Automatico Potenzia Indica se la modalità di potenziamento automatico è attualmente abilitata per questa GPU (On) o
disabilitato per questa GPU (Off). Mostra (N/D) se il potenziamento non è supportato. Auto
boost consente il clock dinamico della GPU in base a potenza, temperatura e utilizzo.
Quando il boost automatico è disabilitato, la GPU tenterà di mantenere gli orologi a
esattamente le impostazioni degli orologi dell'applicazione corrente (ogni volta che un CUDA context
è attivo). Con il potenziamento automatico abilitato, la GPU tenterà comunque di mantenere
questo piano, ma aumenterà opportunisticamente a clock più alti quando il potere,
spazio termico e di utilizzo consentito. Questa impostazione persiste per tutta la vita
del contesto CUDA per il quale è stato richiesto. Le app possono richiedere a
modalità particolare tramite una chiamata NVML (vedere NVML SDK) o impostando il file
Variabile di ambiente CUDA CUDA_AUTO_BOOST.

Automatico Potenzia Predefinito
Indica l'impostazione predefinita per la modalità di potenziamento automatico, abilitata (On) o
disabilitato (Disattivato). Mostra (N/D) se il potenziamento non è supportato. Le app verranno eseguite in
modalità predefinita se non hanno richiesto esplicitamente una modalità particolare. Nota:
Le impostazioni di Auto Boost possono essere modificate solo se la "Modalità Persistenza" è abilitata,
che NON è per impostazione predefinita.

supportato orologi
Elenco di possibili combinazioni di memoria e clock grafici su cui la GPU può operare (non
tenendo conto degli orologi ridotti del freno HW). Queste sono le uniche combinazioni di orologi che
può essere passato al flag --applications-clocks. Gli orologi supportati sono elencati solo quando -q -d
Le opzioni SUPPORTED_CLOCKS sono fornite o in formato XML.

Processi
Elenco di processi con contesto di calcolo o grafica sul dispositivo. I processi di calcolo lo sono
riportato su tutti i prodotti completamente supportati. Il reporting per i processi grafici è limitato
ai prodotti supportati a partire dall'architettura Kepler.

Ciascuna voce ha il formato " "

GPU Indice Rappresenta l'indice NVML del dispositivo.

PID Rappresenta l'ID processo corrispondente al calcolo o alla grafica attiva
contesto.

Tipologia Visualizzato come "C" per processo di calcolo, "G" per processo grafico e "C+G"
per il processo che ha sia contesti di calcolo che di grafica.

Processo Nome Rappresenta il nome del processo per il processo di calcolo o grafica.

GPU Memorie Impiego
Quantità di memoria utilizzata nel dispositivo dal contesto. Non disponibile su
Windows durante l'esecuzione in modalità WDDM perché Windows KMD gestisce tutti i file
memoria non driver NVIDIA.

Statistiche (SPERIMENTALE)
Elenca le statistiche della GPU come campioni di potenza, campioni di utilizzo, eventi xid, cambio di orologio
eventi e contatori di violazioni.

Supportato su prodotti basati su Tesla, GRID e Quadro sotto Linux.

Limitato a Kepler o GPU più recenti.

Visualizza le statistiche in formato CSV come segue:

, , ,

Le metriche da visualizzare con le relative unità sono le seguenti:

Campioni di potenza in Watt.

Campioni di temperatura GPU in gradi Celsius.

Esempi di utilizzo di GPU, memoria, codificatore e decodificatore in percentuale.

Eventi di errore Xid segnalati con il codice di errore Xid. Il codice di errore è 999 per xid sconosciuto
errore.

L'orologio del processore e della memoria cambia in MHz.

Violazione per Power capping con tempo di violazione in ns. (solo Tesla)

Violazione dovuta a Thermal capping con flag booleano di violazione (1/0). (Solo Tesla)

Note:

Qualsiasi statistica preceduta da "#" è un commento.

Il dispositivo non supportato viene visualizzato come "#, dispositivo non supportato".

La metrica non supportata viene visualizzata come ", , N/D, N/D".

Violazione dovuta a temperatura/alimentazione supportata solo per prodotti basati su Tesla. Violazioni termiche
sono limitati a Tesla K20 e versioni successive.

Dispositivo Controllo
La riga di comando "nvidia-smi dmon" viene utilizzata per monitorare una o più GPU (fino a 4 dispositivi)
collegato al sistema. Questo strumento consente all'utente di vedere una riga di dati di monitoraggio per
ciclo di monitoraggio. L'output è in formato conciso e facile da interpretare in modo interattivo
modalità. I dati in uscita per linea sono limitati dalla dimensione del terminale. È supportato su Tesla,
GRID, Quadro e prodotti GeForce limitati per Kepler o GPU più recenti con bare metal 64
bit Linux. Per impostazione predefinita, i dati di monitoraggio includono consumo energetico, temperatura, orologi SM,
Clock di memoria e valori di utilizzo per SM, memoria, codificatore e decodificatore. Può anche essere
configurato per segnalare altri parametri come l'utilizzo della memoria del frame buffer, l'utilizzo della memoria bar1,
violazioni di potenza/termiche ed errori aggregati a singolo/doppio bit ecc. Se uno qualsiasi dei parametri
non è supportato sul dispositivo o qualsiasi altro errore nel recupero della metrica viene segnalato come
"-" nei dati di output. L'utente può anche configurare la frequenza di monitoraggio e il numero di
monitorare le iterazioni per ogni esecuzione. C'è anche un'opzione per includere la data e l'ora in
ogni linea. Tutte le opzioni supportate sono esclusive e possono essere utilizzate insieme in qualsiasi ordine.

Uso:

1) Predefinito con no argomenti

nvidia-smi demone

Monitora le metriche predefinite per un massimo di 4 dispositivi supportati con enumerazione naturale (a partire da
con indice GPU 0) con frequenza di 1 sec. Viene eseguito fino al termine con ^C.

2) Seleziona prima or Scopri di più dispositivi

nvidia-smi demone -i <dispositivo1,dispositivo2, .. , dispositivoN>

Riporta le metriche predefinite per i dispositivi selezionati tramite un elenco di dispositivi separati da virgole. Lo strumento
seleziona fino a 4 dispositivi supportati dall'elenco sotto l'enumerazione naturale (a partire da GPU
indice 0).

3) Seleziona metrica a be visualizzati

nvidia-smi demone -s

può essere uno o più dei seguenti:

p - Consumo energetico (in Watt) e temperatura (in C)

u - Utilizzo (Utilizzo SM, Memoria, Encoder e Decoder in %)

c - Proc e Mem Clock (in MHz)

v - Violazioni di potenza (in %) e Violazioni termiche (come flag booleano)

m - Utilizzo della memoria Frame Buffer e Bar1 (in MB)

e - ECC (Numero di errori aggregati a bit singolo, doppio bit ecc) e PCIe Replay
errori

t - Throughput PCIe Rx e Tx in MB/s (Maxwell e superiori)

4) Configurazione monitoraggio iterazioni

nvidia-smi demone -c <numero of campioni>

Visualizza i dati per il numero specificato di campioni ed esce.

5) Configurazione monitoraggio frequenza

nvidia-smi demone -d <tempo in secondi>

Raccoglie e visualizza i dati a ogni intervallo di monitoraggio specificato fino al termine con
^C.

6) Dsiplay quando

nvidia-smi demone -o D

Antepone i dati di monitoraggio alla data in formato AAAAMMGG.

7) Dsiplay tempo

nvidia-smi demone -o T

Antepone i dati di monitoraggio con l'ora in formato HH:MM:SS.

8) Aiuto Informazioni

nvidia-smi demone -h

Visualizza le informazioni della guida per l'utilizzo della riga di comando.

Demone (SPERIMENTALE)
Il "daemon nvidia-smi" avvia un processo in background per monitorare una o più GPU collegate
al sistema. Monitora le GPU richieste ad ogni ciclo di monitoraggio e registra il file
formato compresso nel percorso fornito dall'utente o nella posizione predefinita in /var/log/nvstats/.
Il file di registro viene creato con la data del sistema aggiunta e nel formato nvstats-
AAAAMMGG. L'operazione di svuotamento del file di registro viene eseguita a ogni ciclo di monitoraggio alternativo.
Daemon registra anche il proprio PID in /var/run/nvsmi.pid. Per impostazione predefinita, i dati di monitoraggio
persist include consumo energetico, temperatura, orologi SM, orologi di memoria e valori di utilizzo
per SM, memoria, codificatore e decodificatore. Gli strumenti demone possono anche essere configurati per registrare
altri parametri come l'utilizzo della memoria del frame buffer, l'utilizzo della memoria bar1, la potenza/termica
violazioni ed errori aggregati a singolo/doppio bit ecc. È impostato il ciclo di monitoraggio predefinito
a 10 secondi e può essere configurato tramite riga di comando. È supportato su Tesla, GRID, Quadro
e prodotti GeForce per Kepler o GPU più recenti sotto Linux bare metal a 64 bit. Il demone
richiede i privilegi di root per l'esecuzione e supporta solo l'esecuzione di una singola istanza su
sistema. Tutte le opzioni supportate sono esclusive e possono essere utilizzate insieme in qualsiasi ordine.

Uso:

1) Predefinito con no argomenti

nvidia-smi demone

Viene eseguito in background per monitorare le metriche predefinite per un massimo di 4 dispositivi supportati in
enumerazione naturale (a partire dall'indice GPU 0) con una frequenza di 10 sec. La data impressa
log viene creato in /var/log/nvstats/.

2) Seleziona prima or Scopri di più dispositivi

nvidia-smi demone -i <dispositivo1,dispositivo2, .. , dispositivoN>

Viene eseguito in background per monitorare le metriche predefinite per i dispositivi selezionati tramite virgola
elenco dei dispositivi separati. Lo strumento seleziona fino a 4 dispositivi supportati dall'elenco sottostante
enumerazione naturale (a partire dall'indice GPU 0).

3) Seleziona metrica a be monitorati

nvidia-smi demone -s

può essere uno o più dei seguenti:

p - Consumo energetico (in Watt) e temperatura (in C)

u - Utilizzo (Utilizzo SM, Memoria, Encoder e Decoder in %)

c - Proc e Mem Clock (in MHz)

v - Violazioni di potenza (in %) e Violazioni termiche (come flag booleano)

m - Utilizzo della memoria Frame Buffer e Bar1 (in MB)

e - ECC (Numero di errori aggregati a bit singolo, doppio bit ecc) e PCIe Replay
errori

t - Throughput PCIe Rx e Tx in MB/s (Maxwell e superiori)

4) Configurazione monitoraggio frequenza

nvidia-smi demone -d <tempo in secondi>

Raccoglie i dati a ogni intervallo di monitoraggio specificato fino al termine.

5) Configurazione ceppo elenco

nvidia-smi demone -p of directory>

I file di registro vengono creati nella directory specificata.

6) Configurazione ceppo filetto Nome

nvidia-smi demone -j <stringa a aggiungere ceppo filetto nome>

La riga di comando viene utilizzata per aggiungere al nome del file di registro la stringa fornita dall'utente.

7) Terminare , il demone

nvidia-smi demone -t

Questa riga di comando utilizza il PID memorizzato (in /var/run/nvsmi.pid) per terminare il demone. Esso
fa del suo meglio per fermare il demone e non offre garanzie per la sua terminazione. In
nel caso in cui il demone non venga terminato, l'utente può terminarlo manualmente inviando kill
segnale al demone. L'esecuzione di un'operazione di ripristino della GPU (tramite nvidia-smi) richiede tutta la GPU
processi da chiudere, incluso il demone. Gli utenti che hanno il demone aperto vedranno un file
errore secondo cui la GPU è occupata.

8) Aiuto Informazioni

nvidia-smi demone -h

Visualizza le informazioni della guida per l'utilizzo della riga di comando.

Replay Moda (SPERIMENTALE)
La riga di comando "nvidia-smi replay" viene utilizzata per estrarre/riprodurre tutto o parte del file di registro
generato dal demone. Per impostazione predefinita, lo strumento tenta di estrarre metriche come Power
Utilizzo, temperatura, orologi SM, orologi di memoria e valori di utilizzo per SM, memoria,
Codificatore e decodificatore. Lo strumento di riproduzione può anche recuperare altri parametri come il frame buffer
utilizzo della memoria, utilizzo della memoria bar1, violazioni di alimentazione/termica e bit singolo/doppio aggregato
ecc errori. È disponibile un'opzione per selezionare una serie di metriche da riprodurre, se presenti
la metrica richiesta non viene mantenuta o registrata come non supportata, viene visualizzata come "-" in
Il risultato. Il formato dei dati prodotti da questa modalità è tale che l'utente esegue il file
utilità di monitoraggio del dispositivo in modo interattivo. La riga di comando richiede l'opzione obbligatoria "-f"
per specificare il percorso completo del nome del file di registro, tutte le altre opzioni supportate sono
esclusivi e possono essere utilizzati insieme in qualsiasi ordine.

Uso:

1) Specificare ceppo filetto a be riprodotto

nvidia-smi ripetere -f <registro filetto nome>

Recupera i dati di monitoraggio dal file di registro compresso e consente all'utente di vedere una riga
dei dati di monitoraggio (metriche predefinite con timestamp) per ciascuna iterazione di monitoraggio memorizzata
nel file di registro. Una nuova riga di dati di monitoraggio viene riprodotta ogni due secondi indipendentemente
dell’effettiva frequenza di monitoraggio mantenuta al momento della raccolta. Viene visualizzato
fino alla fine del file o finché non viene terminato da ^C.

2) Filtro metrica a be riprodotto

nvidia-smi ripetere -f a ceppo file> -s

può essere uno o più dei seguenti:

p - Consumo energetico (in Watt) e temperatura (in C)

u - Utilizzo (Utilizzo SM, Memoria, Encoder e Decoder in %)

c - Proc e Mem Clock (in MHz)

v - Violazioni di potenza (in %) e Violazioni termiche (come flag booleano)

m - Utilizzo della memoria Frame Buffer e Bar1 (in MB)

e - ECC (Numero di errori aggregati a bit singolo, doppio bit ecc) e PCIe Replay
errori

t - Throughput PCIe Rx e Tx in MB/s (Maxwell e superiori)

3) Limitare ripetere a prima or Scopri di più dispositivi

nvidia-smi ripetere -f <registro file> -i <dispositivo1,dispositivo2, .. , dispositivoN>

Limita la segnalazione dei parametri all'insieme di dispositivi selezionati tramite dispositivo separato da virgole
elenco. Lo strumento ignora tutti i dispositivi non mantenuti nel file di registro.

4) limitare , il tempo telaio fra quale dati is segnalati

nvidia-smi ripetere -f <registro file> -b <inizio tempo in OO:MM:SS formato> -e <fine tempo in
OO:MM:SS formato>

Questa opzione consente di limitare i dati nell'intervallo di tempo specificato. Specificando
il tempo come 0 con l'opzione -b o -e implica rispettivamente l'inizio o la fine del file.

5) Reindirizzare ripetere informazioni a a ceppo filetto

nvidia-smi ripetere -f <registro file> -r <uscita filetto nome>

Questa opzione accetta il file di registro come input ed estrae le informazioni relative alle impostazioni predefinite
parametri nel file di output specificato.

6) Aiuto Informazioni

nvidia-smi ripetere -h

Visualizza le informazioni della guida per l'utilizzo della riga di comando.

Processo Controllo
La riga di comando "nvidia-smi pmon" viene utilizzata per monitorare i processi di elaborazione e grafica
in esecuzione su una o più GPU (fino a 4 dispositivi) collegate al sistema. Questo strumento consente
all'utente di vedere ogni volta le statistiche per tutti i processi in esecuzione su ciascun dispositivo
ciclo di monitoraggio. L'output è in formato conciso e facile da interpretare in modo interattivo
modalità. I dati in uscita per linea sono limitati dalla dimensione del terminale. È supportato su Tesla,
GRID, Quadro e prodotti GeForce limitati per Kepler o GPU più recenti con bare metal 64
bit Linux. Per impostazione predefinita, i dati di monitoraggio per ciascun processo includono il comando pid
nome e valori medi di utilizzo per SM, Memoria, Encoder e Decoder dall'ultimo
ciclo di monitoraggio. Può anche essere configurato per segnalare l'utilizzo della memoria del frame buffer per ciascuno
processi. Se non è in esecuzione alcun processo per il dispositivo, vengono segnalate tutte le metriche
come "-" per il dispositivo. Se una qualsiasi delle metriche non è supportata sul dispositivo o su qualsiasi altro
l'errore nel recupero della metrica viene segnalato anche come "-" nei dati di output. L'utente può anche
configurare la frequenza di monitoraggio e il numero di iterazioni di monitoraggio per ciascuna esecuzione. Là
c'è anche un'opzione per includere data e ora su ogni riga. Tutte le opzioni supportate lo sono
esclusivi e possono essere utilizzati insieme in qualsiasi ordine.

Uso:

1) Predefinito con no argomenti

nvidia-smi PMON

Monitora tutti i processi in esecuzione su ciascun dispositivo per un massimo di 4 dispositivi supportati in
enumerazione naturale (a partire dall'indice GPU 0) con una frequenza di 1 sec. Funziona fino a
terminato con ^C.

2) Seleziona prima or Scopri di più dispositivi

nvidia-smi PMON -i <dispositivo1,dispositivo2, .. , dispositivoN>

Riporta le statistiche per tutti i processi in esecuzione sui dispositivi selezionati dalla virgola
elenco dei dispositivi separati. Lo strumento seleziona fino a 4 dispositivi supportati dall'elenco sottostante
enumerazione naturale (a partire dall'indice GPU 0).

3) Seleziona metrica a be visualizzati

nvidia-smi PMON -s

può essere uno o più dei seguenti:

u - Utilizzo (SM, utilizzo della memoria, dell'encoder e del decoder per il processo in %).
Riporta l'utilizzo medio dall'ultimo ciclo di monitoraggio.

m - Utilizzo del frame buffer (in MB). Riporta il valore istantaneo dell'utilizzo della memoria.

4) Configurazione monitoraggio iterazioni

nvidia-smi PMON -c <numero of campioni>

Visualizza i dati per il numero specificato di campioni ed esce.

5) Configurazione monitoraggio frequenza

nvidia-smi PMON -d <tempo in secondi>

Raccoglie e visualizza i dati a ogni intervallo di monitoraggio specificato fino al termine con
^C. La frequenza di monitoraggio deve essere compresa tra 1 e 10 secondi.

6) Dsiplay quando

nvidia-smi PMON -o D

Antepone i dati di monitoraggio alla data in formato AAAAMMGG.

7) Dsiplay tempo

nvidia-smi PMON -o T

Antepone i dati di monitoraggio con l'ora in formato HH:MM:SS.

8) Aiuto Informazioni

nvidia-smi PMON -h

Visualizza le informazioni della guida per l'utilizzo della riga di comando.

Topologia (SPERIMENTALE)
Elenca le informazioni sulla topologia delle GPU del sistema e anche il modo in cui si connettono tra loro
come NIC qualificate in grado di RDMA

Visualizza una matrice di GPU disponibili con la seguente legenda:

Legenda:

X = Sé
SOC = Il percorso attraversa un collegamento a livello di socket (es. QPI)
PHB = Il percorso attraversa un bridge host PCIe
PXB = Il percorso attraversa più switch interni PCIe
PIX = Il percorso attraversa uno switch interno PCIe

UNITA ' ATTRIBUTI


Il seguente elenco descrive tutti i possibili dati restituiti dal -q -u opzione di interrogazione dell'unità.
Se non diversamente indicato, tutti i risultati numerici sono in base 10 e senza unità.

Timestamp
Il timestamp di sistema corrente al momento in cui è stato invocato nvidia-smi. Il formato è "Giorno della settimana
Mese Giorno HH:MM:SS Anno".

Guidatore Versione
La versione del driver video NVIDIA installato. Il formato è
"Numero maggiore. Numero minore".

HIC Info
Informazioni su eventuali schede di interfaccia host (HIC) installate nel sistema.

Firmware Versione
La versione del firmware in esecuzione sull'HIC.

Attached Unità
Il numero di unità collegate nel sistema.

Prodotto Nome
Il nome ufficiale del prodotto dell'unità. Questo è un valore alfanumerico. Per tutta la classe S
quando creo i miei prodotti.

Prodotto Id
L'identificatore del prodotto per l'unità. Questo è un valore alfanumerico della forma
"parte1-parte2-parte3". Per tutti i prodotti di classe S.

Prodotto Seriale
L'identificatore univoco globale immutabile per l'unità. Questo è un valore alfanumerico.
Per tutti i prodotti di classe S.

Firmware Versione
La versione del firmware in esecuzione sull'unità. Il formato è "Numero maggiore.Numero minore".
Per tutti i prodotti di classe S.

LED Regione / Stato
L'indicatore LED viene utilizzato per segnalare i sistemi con potenziali problemi. Un LED di colore AMBRA
indica un problema. Per tutti i prodotti di classe S.

Colore Il colore dell'indicatore LED. O "VERDE" o "AMBRA".

Causare Il motivo dell'attuale colore del LED. La causa può essere elencata come qualsiasi
combinazione di "Sconosciuto", "Impostato su AMBRA dal sistema host", "Sensore termico
guasto", "Guasto ventola" e "La temperatura supera il limite critico".

Temperatura
Letture di temperatura per componenti importanti dell'unità. Tutte le letture sono in gradi C.
Non tutte le letture potrebbero essere disponibili. Per tutti i prodotti di classe S.

Presa Temperatura dell'aria all'ingresso dell'unità.

Scarico Temperatura dell'aria al punto di scarico dell'unità.

Tavola Temperatura dell'aria su tutta la scheda dell'unità.

PSU
Letture per l'alimentazione dell'unità. Per tutti i prodotti di classe S.

Regione / Stato Stato di funzionamento dell'alimentatore. Lo stato dell'alimentatore può essere uno qualsiasi dei
seguenti: "Normale", "Anormale", "Alta tensione", "Guasto ventola", "Dissipatore di calore
temperatura", "Limite di corrente", "Tensione al di sotto della soglia di allarme UV",
"Bassa tensione", "Comando di spegnimento remoto I2C", "Ingresso MOD_DISABLE" o "Pin corto
transizione".

Tensione Impostazione della tensione dell'alimentatore, in volt.

Corrente Assorbimento di corrente dell'alimentatore, in ampere.

Fan Info
Letture della ventola per l'unità. Viene fornita una lettura per ogni ventilatore, di cui ci possono essere
molti. Per tutti i prodotti di classe S.

Regione / Stato Lo stato del ventilatore, "NORMALE" o "FALLITO".

Velocità Per una ventola sana, la velocità della ventola in RPM.

Attached GPU
Un elenco di ID bus PCI che corrispondono a ciascuna delle GPU collegate all'unità. Il bus
Gli id ​​hanno la forma "domain:bus:device.function", in esadecimale. Per tutti i prodotti di classe S.

NOTE


Su Linux, i file del dispositivo NVIDIA possono essere modificati da nvidia-smi se eseguiti come root. Perfavore guarda
la relativa sezione del file README del driver.

I -a ed -g gli argomenti sono ora deprecati a favore di -q ed -i, rispettivamente. Però,
i vecchi argomenti funzionano ancora per questa versione.

ESEMPI


nvidia-smi -q
Interroga gli attributi per tutte le GPU una volta e visualizza in testo normale su stdout.

nvidia-smi --format=csv, senza intestazione --query-gpu=uuid,modalità_persistenza
Interroga l'UUID e la modalità di persistenza di tutte le GPU nel sistema.

nvidia-smi -q -d ECC, POTENZA -i 0 -l 10 -f out.log
Interroga errori ECC e consumo energetico per GPU 0 a una frequenza di 10 secondi,
a tempo indeterminato e registrare nel file out.log.

"nvidia-smi -c 1 -i GPU-b2f5f1b745e3d23d-65a3a26d-097db358-7303e0b6-149642ff3d219f8587cde3a8"
Imposta la modalità di calcolo su "PROIBITO" per GPU con UUID
"GPU-b2f5f1b745e3d23d-65a3a26d-097db358-7303e0b6-149642ff3d219f8587cde3a8".

nvidia-smi -q -u -x --dtd
Interroga gli attributi per tutte le unità una volta e visualizza in formato XML con DTD incorporato per
normale.

nvidia-smi --dtd -u -f nvsmi_unit.dtd
Scrivere l'unità DTD in nvsmi_unit.dtd.

nvidia-smi -q -d OROLOGI_SUPPORTATI
Visualizza gli orologi supportati di tutte le GPU.

nvidia-smi -i 0 --applicazioni-orologi 2500,745
Imposta i clock delle applicazioni su una memoria da 2500 MHz e una grafica da 745 MHz.

CAMBIAMENTO LOG


=== Problemi noti ===

* Su Linux il ripristino della GPU non può essere attivato quando è presente una modifica GOM in sospeso.

* Su Linux il ripristino della GPU potrebbe non modificare correttamente la modalità ECC in sospeso. Potrebbe essere un riavvio completo
necessario per abilitare il cambio di modalità.

=== Modifiche tra nvidia-smi v346 Update e v352 ===

* Aggiunto supporto topografico per visualizzare le affinità per GPU

* Aggiunto supporto topografico per visualizzare le GPU vicine per un dato livello

* Aggiunto supporto topografico per mostrare il percorso tra due determinate GPU

* Aggiunta la riga di comando "nvidia-smi pmon" per il monitoraggio del processo in formato a scorrimento

* Aggiunta l'opzione "--debug" per produrre un registro di debug crittografato da utilizzare nell'invio di bug
torniamo a NVIDIA

* Risolto il problema con la segnalazione di memoria usata/libera in modalità WDDM di Windows

* Le statistiche contabili vengono aggiornate per includere sia i processi in esecuzione che quelli terminati. IL
il tempo di esecuzione del processo in esecuzione viene segnalato come 0 e aggiornato al valore effettivo quando
il processo è terminato.

=== Modifiche tra nvidia-smi v340 Update e v346 ===

* Aggiunta segnalazione dei contatori di replay PCIe

* Aggiunto supporto per la segnalazione dei processi grafici tramite nvidia-smi

* Aggiunto report sull'utilizzo di PCIe

* Aggiunta riga di comando dmon per il monitoraggio del dispositivo in formato a scorrimento

* Aggiunta la riga di comando del demone da eseguire in background e monitorare i dispositivi come demone
processi. Genera file di registro datati in /var/log/nvstats/

* Aggiunta la riga di comando di riproduzione per riprodurre/estrarre i file stat generati dal demone


=== Modifiche tra nvidia-smi v331 Update e v340 ===

* Aggiunta la segnalazione delle informazioni sulla soglia di temperatura.

* Aggiunto il reporting delle informazioni sul marchio (es. Tesla, Quadro, ecc.)

* Aggiunto supporto per K40d e K80.

* Aggiunto reporting di massimo, minimo e medio per i campioni (potenza, utilizzo, modifiche dell'orologio).
Esempio di riga di comando: nvidia-smi -q -d potenza, utilizzo, orologio

* Aggiunta l'interfaccia nvidia-smi stats per raccogliere statistiche come potenza, utilizzo,
cambiamenti dell'orologio, eventi xid e contatori di limitazione delle prestazioni con una nozione di tempo associata a ciascuno
campione. Esempio di riga di comando: nvidia-smi stats

* Aggiunto il supporto per il reporting collettivo dei parametri su più di una GPU. Utilizzato con virgola
separati con l'opzione "-i". Esempio: nvidia-smi -i 0,1,2

* Aggiunto il supporto per la visualizzazione degli utilizzi del codificatore e del decodificatore GPU

* Aggiunta l'interfaccia nvidia-smi topo per visualizzare la matrice di comunicazione GPUDirect
(SPERIMENTALE)

* Aggiunto il supporto per visualizzare l'ID della scheda GPU e se si tratta o meno di una scheda multiGPU

* Rimosso il motivo dell'acceleratore definito dall'utente dall'output XML

=== Modifiche tra nvidia-smi v5.319 Update e v331 ===

* Aggiunta segnalazione del numero minore.

* Aggiunto rapporto sulla dimensione della memoria BAR1.

* Aggiunta la segnalazione del firmware del chip bridge.

=== Modifiche tra nvidia-smi v4.319 Production e v4.319 Update ===

* Aggiunto il nuovo interruttore --applications-clocks-permission per modificare i requisiti di autorizzazione
per impostare e reimpostare gli orologi delle applicazioni.

=== Modifiche tra nvidia-smi v4.304 e v4.319 Produzione ===

* Aggiunto reporting dello stato Display Active e documentazione aggiornata per chiarire come funziona
differisce dalla modalità di visualizzazione e dallo stato di visualizzazione attiva

* Per coerenza su schede multi-GPU nvidia-smi -L visualizza sempre l'UUID invece di
numero di serie

* Aggiunto reporting selettivo leggibile dalla macchina. Vedere la sezione OPZIONI DI INTERROGAZIONE SELETTIVA di
nvidia-smi -h

* Aggiunte query per informazioni sul ritiro della pagina. Vedi --help-query-retired-pages e -d
PAGINA_PENSIONE

* Motivo acceleratore orologio rinominato Orologi definiti dall'utente in Impostazione orologi applicazioni

* In caso di errore, i codici di ritorno hanno valori distinti diversi da zero per ciascuna classe di errore. Vedi RITORNO
sezione VALORE

* nvidia-smi -i ora può interrogare informazioni da una GPU sana quando si verifica un problema
altra GPU nel sistema

* Tutti i messaggi che indicano un problema con una GPU stampano l'ID del bus PCI di una GPU difettosa

* Nuovo flag --loop-ms per interrogare informazioni a velocità più elevate di una volta al secondo (can
avere un impatto negativo sulle prestazioni del sistema)

* Aggiunte query per i processi contabili. Vedi --help-query-accounted-apps e -d
CONTABILITÀ

* Aggiunto il limite di potenza imposto all'output della query

=== Modifiche tra nvidia-smi v4.304 RC e v4.304 Production ===

* Aggiunto il reporting della modalità operativa GPU (GOM)

* Aggiunto il nuovo interruttore --gom per impostare la modalità operativa della GPU

=== Modifiche tra nvidia-smi v3.295 e v4.304 RC ===

* Output riformattato non dettagliato a causa del feedback degli utenti. Rimosse le informazioni in sospeso da
tabella.

* Stampa un messaggio utile se l'inizializzazione fallisce a causa della mancata ricezione del modulo del kernel
interrupt

* Migliore gestione degli errori quando la libreria condivisa NVML non è presente nel sistema

* Aggiunto nuovo interruttore --applications-clocks

* Aggiunto un nuovo filtro all'opzione --display. Esegui con -d SUPPORTED_CLOCKS per elencare possibile
orologi su una GPU

* Quando si segnala la memoria libera, calcolarla dal totale arrotondato e dalla memoria utilizzata, quindi
che i valori si sommano

* Aggiunto report sui limiti di gestione dell'alimentazione e sui limiti predefiniti

* Aggiunto nuovo --power-limit switch

* Aggiunta segnalazione degli errori ECC della memoria delle texture

* Aggiunta segnalazione dei motivi dell'accelerazione dell'orologio

=== Modifiche tra nvidia-smi v2.285 e v3.295 ===

* Segnalazione degli errori più chiara per l'esecuzione dei comandi (come la modifica della modalità di calcolo)

* Quando si eseguono comandi su più GPU contemporaneamente N/D, gli errori vengono trattati come avvisi.

* nvidia-smi -i ora supporta anche UUID

* Il formato UUID è stato modificato per corrispondere allo standard UUID e riporterà un valore diverso.

=== Modifiche tra nvidia-smi v2.0 e v2.285 ===

* Segnala la versione di VBIOS.

* Aggiunto il flag -d/--display per filtrare parti di dati

* Aggiunta segnalazione dell'ID del sottosistema PCI

* Documenti aggiornati per indicare che supportiamo M2075 e C2075

* Segnala la versione del firmware HIC HWBC con l'opzione -u

* Segnala gli orologi massimi (P0) accanto agli orologi correnti

* Aggiunto il flag --dtd per stampare il dispositivo o l'unità DTD

* Aggiunto messaggio quando il driver NVIDIA non è in esecuzione

* Aggiunti rapporti sulla generazione del collegamento PCIe (max e attuale) e sulla larghezza del collegamento (max e
attuale).

* Ottenere il modello di driver in sospeso funziona su non admin

* Aggiunto supporto per l'esecuzione di nvidia-smi su account Guest di Windows

* L'esecuzione di nvidia-smi senza il comando -q produrrà una versione non dettagliata di -q invece di
Aiuto

* Risolto il problema con l'analisi dell'argomento -l/--loop= (valore predefinito, 0, a valore grande)

* Formato modificato di pciBusId (in XXXX:XX:XX.X - questa modifica era visibile in 280)

* L'analisi di busId per il comando -i è meno restrittiva. Puoi passare 0:2:0.0 o
0000:02:00 e altre varianti

* Schema di versioning modificato per includere anche la "versione del driver"

* Il formato XML è sempre conforme a DTD, anche quando si verificano condizioni di errore

* Aggiunto supporto per eventi ECC a bit singolo e doppio ed errori XID (abilitati per impostazione predefinita
con -l flag disabilitato per -x flag)

* Aggiunti i flag di reset del dispositivo -r --gpu-reset

* Aggiunto elenco dei processi di elaborazione in esecuzione

* Stato di alimentazione rinominato in stato di prestazioni. Il supporto obsoleto esiste nell'output XML
solo.

* Numero di versione DTD aggiornato a 2.0 per corrispondere all'output XML aggiornato

Usa alt-nvidia-361-smi online utilizzando i servizi onworks.net


Server e workstation gratuiti

Scarica app per Windows e Linux

  • 1
    Avogadro
    Avogadro
    Avogadro è un molecolare avanzato
    editor progettato per l'uso multipiattaforma
    in chimica computazionale, molecolare
    modellistica, bioinformatica, materiali
    scienza e...
    Scarica Avogadro
  • 2
    XML TV
    XML TV
    XMLTV è un insieme di programmi da elaborare
    Elenchi TV (tvguide) e aiuto nella gestione
    la visione della TV, memorizzando gli elenchi in un
    Formato basato su XML. Ci sono utilità per
    fare...
    Scarica XMLTV
  • 3
    sciopero
    sciopero
    Progetto Strikr Software Libero. Artefatti
    rilasciato sotto un 'intent based'
    doppia licenza: AGPLv3 (community) e
    CC-BY-NC-ND 4.0 internazionale
    (commerciale)...
    Scarica striker
  • 5
    GIFLIB
    GIFLIB
    giflib è una libreria per la lettura e
    scrivere immagini gif. È API e ABI
    compatibile con libungif che era in
    ampio uso mentre la compressione LZW
    l'algoritmo era...
    Scarica GIFLIB
  • 6
    Alt-Fa
    Alt-Fa
    Alt-F fornisce una fonte gratuita e open
    firmware alternativo per il DLINK
    DNS-320/320L/321/323/325/327L and
    DNR-322L. Alt-F ha Samba e NFS;
    supporta ext2/3/4...
    Scarica Alt-F
  • Di Più "

Comandi Linux

  • 1
    2ping6
    2ping6
    2ping - Un'utilità ping bidirezionale ...
    Esegui 2ping6
  • 2
    2-3-2.7
    2-3-2.7
    2to3-2.7 - Convertitore da Python2 a Python3
    ...
    Corri da 2 a 3-2.7
  • 3
    cpqarrayd
    cpqarrayd
    cpqarrayd - Controllore di array
    demone di monitoraggio SINTASSI: cpqarrayd [-d]
    [-v] [-t host [-t host]] DESCRIZIONE:
    Questo programma è in grado di monitorare HP
    (Compaq) ar...
    Eseguire cpqarrayd
  • 4
    cproto
    cproto
    cproto - genera prototipi di funzioni C
    e convertire le definizioni delle funzioni...
    Esegui cproto
  • 5
    gapi2-riparazione
    gapi2-riparazione
    undocumented - Nessuna manpage per questo
    programma. DESCRIZIONE: Questo programma fa
    non avere una manpage. Esegui questo comando
    con l'aiuto passare per vedere di cosa si tratta
    fa. Per f...
    Eseguire gapi2-fixup
  • 6
    gapi2-parser
    gapi2-parser
    undocumented - Nessuna manpage per questo
    programma. DESCRIZIONE: Questo programma fa
    non avere una manpage. Esegui questo comando
    con l'aiuto passare per vedere di cosa si tratta
    fa. Per f...
    Eseguire gapi2-parser
  • Di Più "

Ad