Aceasta este comanda alt-nvidia-340-cuda-mps-control care poate fi rulată în furnizorul de găzduire gratuit OnWorks folosind una dintre multiplele noastre stații de lucru online gratuite, cum ar fi Ubuntu Online, Fedora Online, emulator online Windows sau emulator online MAC OS
PROGRAM:
NUME
nvidia-cuda-mps-control - programul de gestionare a serviciului NVIDIA CUDA Multi Process
REZUMAT
nvidia-cuda-mps-control [-d]
DESCRIERE
MPS este un serviciu de rulare conceput pentru a permite rularea mai multor procese MPI folosind CUDA
simultan pe un singur GPU într-un mod care este transparent pentru programul MPI. O CUDA
programul rulează în modul MPS dacă demonul de control MPS rulează pe sistem.
Când CUDA este inițializat pentru prima dată într-un program, driverul CUDA încearcă să se conecteze la
Daemon de control MPS. Dacă încercarea de conectare eșuează, programul continuă să ruleze așa cum este
în mod normal, fără MPS. Dacă totuși, încercarea de conectare la demonul de control
reușește, driverul CUDA solicită apoi demonului să pornească un server MPS în numele său.
Dacă există un server MPS care rulează deja și ID-ul de utilizator al procesului respectiv se potrivește
cel al procesului client care solicită, demonul de control pur și simplu notifică clientul
procesul acestuia, care apoi se conectează la server. Dacă nu există un server MPS
rulează deja pe sistem, demonul de control lansează un server MPS cu același
ID utilizator (UID) ca acela al procesului client care solicită. Dacă există deja un server MPS
rulează, dar cu un ID de utilizator diferit de cel al procesului client, demonul de control
solicită serverului existent să se închidă imediat ce toți clienții săi au terminat. Odata ce
serverul existent s-a terminat, demonul de control lansează un nou server cu id-ul de utilizator
aceeași cu cea a procesului client în coadă.
Serverul MPS creează contextul GPU partajat, își gestionează clienții și emite lucrări către
GPU în numele clienților săi. Un server MPS poate suporta până la 16 contexte client CUDA la a
timp. MPS este transparent pentru programele CUDA, cu toată complexitatea comunicării
între procesul client, server și demonul de control ascuns în driver
binare.
În prezent, CUDA MPS este disponibil numai pe Linux pe 64 de biți, necesită un dispozitiv care să accepte
Adresă virtuală unificată (UVA) și are capacitate de calcul SM 3.5 sau mai mare. Aplicații
care necesită API-uri pre-CUDA 4.0 nu sunt acceptate sub CUDA MPS. De asemenea, MPS nu este acceptat
pe configurații multi-GPU. Vă rugăm să utilizați CUDA_VISIBLE_DEVICES când porniți controlul
daemon pentru a limita vizibilitatea la un singur dispozitiv.
OPŢIUNI
-d
Porniți demonul de control MPS, presupunând că utilizatorul are suficiente privilegii (de exemplu, root).
-h, --Ajutor
Imprimați un mesaj de ajutor.
<nu argumente>
Porniți interfața de utilizator de management front-end către demonul de control MPS, care trebuie să fie
a început primul. Interfața de utilizare front-end continuă să citească comenzile de la stdin până la EOF. Comenzile sunt
separate prin caracterul newline. Dacă o comandă nevalidă este emisă și respinsă, o eroare
mesajul va fi tipărit la stdout. Starea de ieșire a interfeței de utilizare front-end este zero dacă
comunicarea cu demonul are succes. O valoare diferită de zero este returnată dacă demonul este
nu a fost găsită sau conexiunea la demon este întreruptă în mod neașteptat. Vezi mai jos comanda „Ieșire”.
pentru mai multe informații despre starea de ieșire.
Comenzi acceptate de demonul de control MPS:
get_server_list
Imprimați o listă cu PID-urile tuturor serverelor MPS.
start_server -uid UID
Porniți un nou server MPS pentru utilizatorul specificat (UID).
shutdown_server PID [-f]
Închideți serverul MPS cu date PID. Serverul MPS nu va accepta nimic nou
conexiuni la client și se iese atunci când toți clienții actuali se deconectează. -f e fortat
oprire imediată. Dacă un client lansează un nucleu defect care rulează pentru totdeauna, a
Închiderea forțată a serverului MPS poate fi necesară, deoarece serverul MPS creează și
emite funcționarea GPU-ului în numele clienților săi.
get_client_list PID
Tipăriți o listă cu PID-urile tuturor clienților conectați la serverul MPS cu date PID.
părăsi [-t PAUZĂ]
Închideți procesul demonului de control MPS și toate serverele MPS. Daemonul de control MPS
nu mai acceptă clienți noi în timp ce se așteaptă serverele și clienții MPS actuali
a termina. Dacă PAUZĂ este specificat (în secunde), demonul va forța serverele MPS
să se închidă dacă încă mai aleargă după PAUZĂ secunde.
Această comandă este sincronă. Interfața de utilizare front-end așteaptă ca demonul să se închidă,
apoi returnează starea de ieșire a demonului. Starea de ieșire este zero dacă toate serverele MPS
au ieșit cu grație.
MEDIUL
CUDA_MPS_PIPE_DIRECTORY
Specificați directorul care conține conductele numite utilizate pentru comunicarea între
Control MPS, server MPS și clienți MPS. Valoarea acestei variabile de mediu
ar trebui să fie consecvent în demonul de control MPS și în toate procesele client MPS.
Directorul implicit este /tmp/nvidia-mps
CUDA_MPS_LOG_DIRECTORY
Specificați directorul care conține fișierele jurnal MPS. Această variabilă este folosită de
Numai demonul de control MPS. Directorul implicit este /var/log/nvidia-mps
Utilizați alt-nvidia-340-cuda-mps-control online folosind serviciile onworks.net