GoGPT Best VPN GoSearch

Icône de favori OnWorks

scontrol - En ligne dans le Cloud

Exécutez scontrol dans le fournisseur d'hébergement gratuit OnWorks sur Ubuntu Online, Fedora Online, l'émulateur en ligne Windows ou l'émulateur en ligne MAC OS

Il s'agit de la commande scontrol qui peut être exécutée dans le fournisseur d'hébergement gratuit OnWorks en utilisant l'un de nos nombreux postes de travail en ligne gratuits tels que Ubuntu Online, Fedora Online, l'émulateur en ligne Windows ou l'émulateur en ligne MAC OS

PROGRAMME:

Nom


scontrol - Permet d'afficher et de modifier la configuration et l'état de Slurm.

SYNOPSIS


contrôle [OPTIONS...] [COMMAND...]

DESCRIPTION


contrôle est utilisé pour afficher ou modifier la configuration de Slurm, y compris : tâche, étape de tâche, nœud,
partition, réservation et configuration globale du système. La plupart des commandes ne peuvent être
Exécuté par l'utilisateur root. Si une tentative de consultation ou de modification des informations de configuration est effectuée,
par un utilisateur non autorisé, un message d'erreur sera imprimé et l'action demandée sera
ne se produit pas. Si aucune commande n'est saisie sur la ligne d'exécution, contrôle fonctionnera dans un
Mode interactif et invite à la saisie. L'invite à la saisie et l'exécution continueront.
commandes jusqu'à leur fin explicite. Si une commande est saisie sur la ligne d'exécution,
contrôle exécutera cette commande et se terminera. Toutes les commandes et options sont
insensible à la casse, bien que les noms de nœuds, les noms de partitions et les noms de réservation soient
Respect de la casse (les noms de nœuds « LX » et « lx » sont distincts). Toutes les commandes et options peuvent être
abrégé dans la mesure où la spécification est unique. Un Slurm modifié
la configuration peut être écrite dans un fichier en utilisant le contrôle écrire config commander. le
le fichier résultant sera nommé en utilisant la convention « slurm.conf ». " et situé dans
le même répertoire que le fichier « slurm.conf » d'origine. Le répertoire contenant le
Le fichier slurm.conf original doit être accessible en écriture pour que cela se produise.

OPTIONS


-a, --tout
When the montrer la commande est utilisée, puis affiche toutes les partitions, leurs tâches et leurs travaux
étapes. Cela permet d'afficher des informations sur les partitions configurées
comme des partitions cachées et inaccessibles au groupe d'utilisateurs.

-d, --des détails
Provoque le montrer commande pour fournir des détails supplémentaires, le cas échéant. Répétition
l'option plus d'une fois (par exemple, « -dd ») entraînera le montrer JOB commande à également
répertoriez le script batch, si le travail était un travail batch.

-h, --Aidez-moi
Imprimez un message d'aide décrivant l'utilisation de scontrol.

--cacher Ne pas afficher les informations sur les partitions cachées, leurs tâches et leurs étapes.
par défaut, ni les partitions configurées comme cachées ni celles
indisponible pour le groupe d'utilisateurs sera affiché (c'est-à-dire qu'il s'agit du comportement par défaut).

-M, --groupes=<un magnifique>
Le cluster auquel émettre des commandes. Un seul nom de cluster peut être spécifié.

-o, --oneliner
Imprimer les informations une ligne par enregistrement.

-Q, --silencieux
N'imprimez aucun message d'avertissement ou d'information, uniquement des messages d'erreur fatale.

-v, --verbeux
Imprimer la journalisation détaillée des événements. Plusieurs -vCela augmentera encore la verbosité de
journalisation. Par défaut, seules les erreurs seront affichées.

-V , --version
Imprimer les informations sur la version et quitter.

COMMANDES

tous Afficher toutes les partitions, leurs tâches et leurs étapes. Cela permet d'afficher les informations.
affiché sur les partitions configurées comme cachées et les partitions qui sont
indisponible pour le groupe d'utilisateurs.

avortement Demandez au contrôleur Slurm de se terminer immédiatement et de générer un fichier core.
Voir « man slurmctld » pour plus d'informations sur l'endroit où le fichier core sera écrit.

point de contrôle CKPT_OP ID
Effectuez une activité de point de contrôle sur les étapes de travail avec l'identification spécifiée.
ID peut être utilisé pour identifier un travail spécifique (par exemple « ", qui s'applique à tous les
ses étapes existantes) ou une étape de travail spécifique (par exemple « . "). Acceptable
valeurs pour CKPT_OP consistent à

capable Tester si actuellement non désactivé, signaler l'heure de début si le point de contrôle est activé
le progrès

créer des Créez un point de contrôle et continuez le travail ou l'étape du travail

désactiver Désactiver les futurs points de contrôle

permettre Activer les futurs points de contrôle

erreur Indiquez le résultat de la dernière demande de point de contrôle, le code d'erreur et
message

recommencer Redémarrer l'exécution du travail ou de l'étape de travail précédemment contrôlé

remettre en file d'attente Créez un point de contrôle et remettez en file d'attente le travail par lots, combinez les opérations de libération et
redémarrer les opérations

quitter Créer un point de contrôle et terminer le travail ou l'étape du travail
Valeurs acceptables pour CKPT_OP consistent à

MaxWait= Durée maximale d'écriture du point de contrôle. La valeur par défaut est 10.
secondes. Valable avec créer des et quitter options uniquement.

ImageDir=
Emplacement du fichier de point de contrôle. Valide avec créer des , quitter et
recommencer options uniquement. Cette valeur est prioritaire sur toute autre
--checkpoint-dir valeur spécifiée au moment de la soumission du travail.

StickToNodes Si défini, reprendre le travail sur les mêmes nœuds précédemment utilisés.
Valable avec le recommencer option seulement.

grappe CLUSTER_NAME
Le cluster auquel émettre des commandes. Un seul nom de cluster peut être spécifié.

créer des CARACTÉRISTIQUES
Créez une nouvelle partition ou réservation. Consultez la liste complète des paramètres ci-dessous.
Inclure la balise « res » pour créer une réservation sans spécifier de réservation
nom.

compléter
Afficher tous les travaux dans un état TERMINÉ ainsi que les nœuds associés dans un
État EN COURS DE TERMINAISON ou EN ARRÊT.

delete CARACTÉRISTIQUES
Supprimer l'entrée avec le spécifié CARACTÉRISTIQUES. Les deux CARACTÉRISTIQUES choix
sommes-nous PartitionName= et Réservation=. Sur Bluegene disposé dynamiquement
les systèmes Nom du bloc= fonctionne également. Les réservations et les partitions ne doivent pas avoir
tâches associées au moment de leur suppression (modifiez d'abord la tâche). Si
la partition spécifiée est en cours d'utilisation, la demande est refusée.

détails
Provoque le montrer commande de fournir des détails supplémentaires si disponibles. Travail
Les informations comprendront les processeurs et la mémoire NUMA alloués à chaque nœud. Notez que
ordinateurs avec hyperthreading activé et Slurm configuré pour allouer des cœurs, chacun
Le processeur indiqué représente un cœur physique. Chaque hyperthread de ce cœur peut être
une tâche distincte est attribuée, de sorte que le nombre de CPU d'un travail et le nombre de tâches peuvent différer. Voir le
--cpu_bind et --mem_bind descriptions des options dans les pages de manuel de srun pour plus d'informations
information. le détails L'option n'est actuellement prise en charge que pour le montrer JOB
commande. Pour lister également le script batch pour les tâches par lots, en plus des détails,
utiliser le scénario option décrite ci-dessous au lieu de cette option.

errnumstr ERREUR
Étant donné un numéro d'erreur Slurm, renvoyez une chaîne descriptive.

sortie Termine l'exécution de scontrol. Il s'agit d'une commande indépendante, sans
options destinées à être utilisées en mode interactif.

vous aider Affiche une description des options et des commandes de contrôle.

cacher N'affichez pas les informations de partition, de tâche ou d'étape de tâche pour les partitions qui sont
configurées comme masquées ou partitions inaccessibles au groupe de l'utilisateur. Ceci
est le comportement par défaut.

appuyez en continu liste_de_travail
Empêcher le démarrage d'une tâche en attente (définit sa priorité à 0). Utilisez le
libérer commande permettant de planifier la tâche. L'argument job_list est un
liste séparée par des virgules des identifiants de tâches OU « jobname = » avec le nom de la tâche, ce qui
tenter de conserver tous les jobs portant ce nom. Notez que lorsqu'un job est détenu par un
administrateur système à l'aide du appuyez en continu commande, seul un administrateur système peut
libérer le travail pour exécution (voir aussi le tenir commande). Lorsque le travail est détenu par
son propriétaire, il peut également être libéré par le propriétaire du travail.

notifier id_travail message
Envoyer un message à l'erreur standard de la commande salloc ou srun ou du travail par lots
associé au spécifié id_travail.

bon mot
Imprimer les informations une ligne par enregistrement.

pidinfo proc_id
Imprimez l'ID de tâche Slurm et l'heure de fin prévue correspondant à celle fournie
identifiant de processus, proc_id, sur le nœud actuel. Ceci ne fonctionnera qu'avec les processus sur
nœud sur lequel scontrol est exécuté, et uniquement pour les processus générés par Slurm et
leurs descendants.

listpids [id_travail[.id_étape]] [NomNoeud]
Imprimer une liste des ID de processus dans une étape de travail (si JOBID.STEPID est fourni), ou
toutes les étapes d'un travail (si id_travail est fourni), ou toutes les étapes du travail dans
tous les travaux sur le nœud local (si id_travail n'est pas fourni ou id_travail est "*").
Cela fonctionnera uniquement avec les processus sur le nœud sur lequel scontrol est exécuté, et uniquement
pour les processus engendrés par Slurm et leurs descendants. Notez que certains Slurm
configurations (Type de suivi de processus valeur de pgid or aix) ne sont pas en mesure d'identifier tous
processus associés à un travail ou à une étape de travail.

Notez que l'option NodeName n'est vraiment utile que lorsque vous avez plusieurs slurmd
Les démons slurmd s'exécutent sur la même machine hôte. Plusieurs démons slurmd sur un même hôte sont :
en général, utilisé uniquement par les développeurs Slurm.

ping Envoyez une requête ping au démon slurmctld principal et secondaire et signalez s'ils répondent.

calme N'imprimez aucun message d'avertissement ou d'information, uniquement des messages d'erreur fatale.

quitter Terminer l'exécution de scontrol.

reboot_nodes [Liste de nœuds]
Redémarrez tous les nœuds du système lorsqu'ils deviennent inactifs à l'aide de la Programme de redémarrage as
Configuré dans le fichier slurm.conf de Slurm. Accepte une liste d'options de nœuds à redémarrer.
Par défaut, tous les nœuds sont redémarrés. REMARQUE : cette commande n'empêche pas les
les tâches ne soient pas planifiées sur ces nœuds, de sorte que de nombreuses tâches peuvent être exécutées sur les nœuds
avant leur redémarrage. Vous pouvez explicitement vider les nœuds afin de les redémarrer.
nœuds dès que possible, mais les nœuds doivent également être explicitement renvoyés à
service après redémarrage. Vous pouvez également créer une réservation avancée pour
empêcher le lancement de tâches supplémentaires sur les nœuds à redémarrer. REMARQUE : les nœuds
sera placé dans un état de « MAINT » jusqu'à ce qu'il soit redémarré et remis en service avec un
état normal. L'état « MAINT » du nœud peut également être effacé à l'aide de la commande
Commande scontrol pour définir l'état du nœud sur « RESUME », ce qui efface l'indicateur « MAINT ».

reconfigurer
Demande à tous les démons Slurm de relire le fichier de configuration. Cette commande ne
Ne pas redémarrer les démons. Ce mécanisme serait utilisé pour modifier la configuration.
paramètres (Epilog, Prolog, SlurmctldLogFile, SlurmdLogFile, etc.). Le Slurm
Le contrôleur (slurmctld) transmet la requête à tous les autres démons (démon slurmd activé)
chaque nœud de calcul). Les tâches en cours d'exécution continuent leur exécution. La plupart des paramètres de configuration
peut être modifié en exécutant simplement cette commande, cependant, les démons Slurm doivent être
arrêt et redémarrage si l'un de ces paramètres doit être modifié : AuthType,
Adresse de sauvegarde, Contrôleur de sauvegarde, Adresse de contrôle, Machine de contrôle, Répertoire du plugin,
StateSaveLocation, SlurmctldPort ou SlurmdPort. Le démon slurmctld doit être
redémarré si des nœuds sont ajoutés ou supprimés du cluster.

libérer liste_de_travail
Libérer une tâche précédemment suspendue pour commencer son exécution. L'argument job_list est une virgule.
liste séparée des identifiants de tâches OU « jobname = » avec le nom de la tâche, qui tentera de
occuper tous les emplois portant ce nom. Voir aussi appuyez en continu.

remettre en file d'attente liste_de_travail
Remettre en file d'attente une tâche par lots Slurm en cours d'exécution, suspendue ou terminée.
L'argument job_list est une liste d'ID de tâche séparés par des virgules.

remettre en file d'attente liste_de_travail
Remettre en file d'attente un travail par lots Slurm en cours d'exécution, suspendu ou terminé dans l'état en attente,
De plus, la tâche est mise en attente (priorité zéro). L'argument job_list est un
Liste d'identifiants de tâches séparés par des virgules. Une tâche suspendue peut être libérée à l'aide de scontrol.
réinitialiser sa priorité (par exemple « scontrol release "). La commande accepte le
option suivante :

État=SortieSpéciale
Le mot-clé « SpecialExit » spécifie que le travail doit être placé dans un emplacement spécial
Etat EMPLOI_SORTIE_SPÉCIALE. La commande « scontrol show job » affichera le
JobState comme SORTIE_SPÉCIALE, tandis que la commande « squeue » comme SE.

CV liste_de_travail
Reprendre une tâche précédemment suspendue. L'argument job_list est une liste séparée par des virgules.
des identifiants de tâches. Voir aussi suspendre.

NOTE: Une tâche suspendue libère ses CPU pour être allouées à d'autres tâches. La reprise d'une
une tâche précédemment suspendue peut entraîner l'attribution de plusieurs tâches aux mêmes processeurs,
ce qui pourrait déclencher une planification de gang avec certaines configurations ou une dégradation sévère
en termes de performances avec d'autres configurations. Utilisation de la commande scancel pour envoyer
Les signaux SIGSTOP et SIGCONT arrêteraient un travail sans libérer ses CPU pendant
l'affectation à d'autres tâches et constituerait un mécanisme préférable dans de nombreux cas.
Avec précaution.

niveau de planification NIVEAU
Activer ou désactiver la journalisation du planificateur. NIVEAU peut être « 0 », « 1 », « désactiver » ou « activer ».
« 0 » a le même effet que « désactiver ». « 1 » a le même effet que « activer ». Ceci
la valeur est temporaire et sera écrasée lorsque le démon slurmctld lira le
fichier de configuration slurm.conf (par exemple lorsque le démon est redémarré ou contrôle
reconfigurer est exécuté) si le paramètre SlurmSchedLogLevel est présent.

scénario Provoque le montrer JOB commande pour lister le script batch pour les tâches par lots en plus de
les informations détaillées décrites sous le détails option ci-dessus.

définir le débogage NIVEAU
Modifiez le niveau de débogage du démon slurmctld. NIVEAU peut être une valeur entière
entre zéro et neuf (en utilisant les mêmes valeurs que SlurmctldDebug dans le slurm.conf
fichier) ou le nom du type de message le plus détaillé à imprimer : « quiet »,
« fatal », « erreur », « info », « verbeux », « debug », « debug2 », « debug3 », « debug4 » ou
« debug5 ». Cette valeur est temporaire et sera écrasée à chaque exécution de slurmctld.
le démon lit le fichier de configuration slurm.conf (par exemple lorsque le démon est redémarré
or contrôle reconfigurer est exécuté).

définir les indicateurs de débogage [+|-]FLAG
Ajoutez ou supprimez les DebugFlags du démon slurmctld. Consultez « man slurm.conf » pour une liste.
des DebugFlags pris en charge. REMARQUE : la modification de la valeur de certains DebugFlags n'aura aucun effet
effet sans redémarrer le démon slurmctld, ce qui définirait DebugFlags en fonction
sur le contenu du fichier de configuration slurm.conf.

montrer ENTITÉ ID
Affiche l'état de l'entité spécifiée avec l'identification spécifiée.
ENTITÉ peut être alias, cachette, config, daemons, frontend, JOB, nœud, partition,
capuchon d'alimentation, réservation, slurmd, étape, topologie, liste d'hôtes, liste d'hôtes triée or
noms d'hôte (egalement bloc or submp sur les systèmes BlueGene). ID peut être utilisé pour identifier un
élément spécifique de l'entité identifiée : ID de tâche, nom de nœud, nom de partition,
nom de réservation ou ID d'étape de travail pour JOB, nœud, partition, ou étape respectivement.
Pour une ENTITÉ of topologie, un ID peut être un nom de nœud ou de commutateur. Si un nom de nœud
est spécifié, tous les commutateurs connectés à ce nœud (et leurs commutateurs parents)
être affiché. Si plusieurs noms de nœuds sont spécifiés, seuls les commutateurs qui se connectent à
tous les nœuds nommés seront affichés. alias retournera tout NomNoeud valeurs associées
à un donné Nom d'hôte du nœud (utile pour obtenir la liste des nœuds virtuels associés à un
nœud réel dans une configuration où plusieurs démons slurmd s'exécutent sur un seul
nœud de calcul). cachette affiche le contenu actuel du fichier interne du slurmctld
cache pour les utilisateurs et les associations. config affiche les noms des paramètres du
fichiers de configuration en majuscules et minuscules (par exemple SlurmdPort=7003) tandis que les paramètres dérivés
les noms sont en majuscules uniquement (par exemple SLURM_VERSION). noms d'hôte prend une option
expression hostlist en entrée et écrit une liste de noms d'hôtes individuels dans la norme
sortie (une par ligne). Si aucune expression hostlist n'est fournie, le contenu de la
La variable d'environnement SLURM_NODELIST est utilisée. Par exemple, « tux[1-3] » est mappé à
"tux1", "tux2" et "tux3" (un nom d'hôte par ligne). liste d'hôtes prend une liste d'hôtes
noms et imprime l'expression de la liste d'hôtes pour eux (l'inverse de noms d'hôte).
liste d'hôtes peut également prendre le chemin d'accès absolu d'un fichier (commençant par le
(caractère « / ») contenant une liste de noms d'hôtes. Plusieurs noms de nœuds peuvent être
spécifié à l'aide d'expressions simples de plage de nœuds (par exemple, « lx[10-20] »). Tous les autres ID
Les valeurs doivent identifier un seul élément. L'ID d'étape de tâche est de la forme
"job_id.step_id", (par exemple "1234.1"). slurmd indique l'état actuel du slurmd
démon s'exécutant sur le même nœud à partir duquel la commande scontrol est exécutée (le
(hôte local). Cela peut être utile pour diagnostiquer les problèmes. Par défaut liste d'hôtes ne collecte
trier la liste des nœuds ou la rendre unique (par exemple tux2,tux1,tux2 = tux[2,1-2]). Si vous
voulait une liste triée à utiliser liste d'hôtes triée (par exemple tux2,tux1,tux2 = tux[1-2,2]). Par
Par défaut, tous les éléments du type d'entité spécifié sont imprimés. Pour un ENTITÉ of
JOB, si le travail ne spécifie pas de socket par nœud, de cœurs par socket ou de threads par
core, il affichera alors '*' dans le champ ReqS:C:T=*:*:*.

shutdown OPTION
Indiquez aux démons Slurm de sauvegarder leur état actuel et de s'arrêter. Par défaut, Slurm
Le contrôleur (slurmctld) transmet la requête à tous les autres démons (démon slurmd activé)
chaque nœud de calcul). Un OPTION of slurmctld or contrôleur résultats uniquement dans le
Le démon slurmctld est arrêté et les démons slurmd restent actifs.

suspendre liste_de_travail
Suspendre une tâche en cours d'exécution. L'argument job_list est une liste d'identifiants de tâches séparés par des virgules.
Utilisez l'option CV commande pour reprendre son exécution. Les processus utilisateurs doivent s'arrêter sur
réception du signal SIGSTOP et reprise dès réception du SIGCONT pour cette opération
être efficace. Toutes les architectures et configurations ne prennent pas en charge la suspension des tâches. Si
un travail suspendu est remis en file d'attente, il sera placé dans un état suspendu.

prise de contrôle
Demandez au contrôleur de sauvegarde de Slurm (slurmctld) de prendre le contrôle du système.
Le contrôleur de secours de Slurm demande le contrôle au contrôleur principal et attend son
terminaison. Ensuite, il passe du mode de secours au mode contrôleur. Si
le contrôleur principal ne peut pas être contacté, il passe directement en mode contrôleur.
Cela peut être utilisé pour accélérer le mécanisme de basculement du contrôleur Slurm lorsque le
Le nœud principal est en panne. Ceci peut être utilisé pour minimiser les perturbations si l'ordinateur
l'exécution du contrôleur Slurm principal est planifiée. (Remarque : le contrôleur principal de Slurm
le contrôleur reprendra le contrôle au démarrage.)

tenir liste_de_travail
Empêcher le démarrage d'une tâche en attente (définir sa priorité à 0). La liste des tâches
L'argument est une liste d'identifiants ou de noms de tâches, séparés par des espaces. Utilisez l'option libérer
commande permettant de planifier la tâche. Cette commande est conçue pour un système
l'administrateur doit conserver un travail afin que le propriétaire du travail puisse le libérer plutôt que
nécessitant l'intervention d'un administrateur système (voir également le appuyez en continu commander).

Mise à jour CARACTÉRISTIQUES
Mettre à jour la configuration du travail, de l'étape, du nœud, de la partition, du plafonnement de puissance ou de la réservation par
la spécification fournie. CARACTÉRISTIQUES est dans le même format que le Slurm
fichier de configuration et la sortie du montrer commande décrite ci-dessus. Il se peut que
souhaitable d'exécuter le montrer commande (décrite ci-dessus) sur l'entité spécifique que vous
à mettre à jour, puis utilisez les outils copier-coller pour saisir les valeurs de configuration mises à jour
à la Mise à jour. Notez que même si la plupart des valeurs de configuration peuvent être modifiées à l'aide de cette
commande, tout ne peut pas être modifié par ce mécanisme. En particulier, le matériel
configuration d'un nœud ou l'ajout ou la suppression physique de nœuds du
le cluster ne peut être réalisé qu'en modifiant le fichier de configuration Slurm et
exécuter le reconfigurer commande (décrite ci-dessus).

verbeux
Imprimer la journalisation détaillée des événements. Cela inclut les horodatages sur les structures de données, les enregistrements
compte, etc.

version
Affiche le numéro de version de scontrol en cours d'exécution.

wait_job id_travail
Attendez qu'un travail et tous ses nœuds soient prêts à être utilisés ou que le travail soit entré dans une certaine
état de terminaison. Cette option est particulièrement utile dans le prologue Slurm ou dans le
script batch lui-même si les nœuds sont mis hors tension et redémarrés automatiquement comme
nécessaire.

écrire config
Écrire la configuration actuelle dans un fichier avec la convention de nommage de
"slurm.conf. " dans le même répertoire que le fichier slurm.conf d'origine.

!! Répétez la dernière commande exécutée.

DONNÉES TECHNIQUES POUR LES CANADIENS MISE A JOUR COMMANDER, OFFRES D'EMPLOIS

Compte=
Le nom du compte doit être modifié pour l'utilisation des ressources de cette tâche. La valeur peut être effacée avec
valeur de données vide, "Compte=".

ArrayTaskThrottle=
Spécifiez le nombre maximal de tâches dans un tableau de tâches pouvant s'exécuter en même temps.
Temps. Réglez le compteur à zéro afin d'éliminer toute limite. La limitation des tâches
Le nombre d'un tableau de tâches est signalé dans le cadre de son champ ArrayTaskId, précédé d'un
signe de pourcentage. Par exemple, « ArrayTaskId=1-10%2 » indique le nombre maximal de
les tâches en cours d'exécution sont limitées à 2.

BurstBuffer=
La spécification du tampon d'éclatement doit être modifiée pour l'utilisation des ressources de cette tâche. La valeur peut être
Effacé avec une valeur de données vide : « BurstBuffer ». Le format est un plugin de tampon d'éclatement.
spécifique.

Type de connexion=
Réinitialiser le type de connexion du nœud. Prise en charge uniquement sur les systèmes IBM BlueGene. Possible.
les valeurs sur sont "MESH", "TORUS" et "NAV" (mesh sinon tore).

Contigu=
Définissez l'exigence du travail pour que les nœuds contigus (consécutifs) soient alloués.
Les valeurs possibles sont « OUI » et « NON ». Seul l'administrateur Slurm ou root peut le faire.
modifier ce paramètre.

Dépendance=
Différer le lancement du travail jusqu'à ce que la spécification de dépendance du travail spécifiée soit satisfaite.
Annulez la dépendance avec une dependency_list vide (par exemple « Dependency = »).
<liste_de_dépendance> est de la formetype:job_id[:job_id][,type:job_id[:job_id]]>.
De nombreux emplois peuvent partager la même dépendance et ces emplois peuvent même appartenir à des entités différentes.
ses utilisateurs.

après:job_id[:jobid...]
Ce travail peut commencer l'exécution une fois que les travaux spécifiés ont commencé à s'exécuter.

après tout:job_id[:jobid...]
Ce travail peut commencer l'exécution après la fin des travaux spécifiés.

aprèsnotok:job_id[:jobid...]
Ce travail peut commencer l'exécution une fois que les travaux spécifiés se sont terminés dans
certains états d'échec (code de sortie différent de zéro, échec de nœud, expiration du délai, etc.).

afterok:job_id[:jobid...]
Ce travail peut commencer l'exécution une fois que les travaux spécifiés ont réussi
exécuté (exécuté jusqu'à la fin avec un code de sortie de zéro).

singleton
Ce travail peut commencer l'exécution après tout travail précédemment lancé partageant le
le même nom de travail et le même utilisateur ont pris fin.

Temps admissible=
See Heure de début.

Liste de nœuds Exc=
Définissez la liste des nœuds exclus de la tâche. Vous pouvez spécifier plusieurs noms de nœuds à l'aide de
Expressions de plage de nœuds simples (par exemple, « lx[10-20] »). La valeur peut être effacée avec un espace.
valeur de données, "ExcNodeList=".

Comment ça marche=
Définissez les fonctionnalités de nœud requises pour la tâche. La liste des fonctionnalités peut inclure plusieurs fonctionnalités.
noms de fonctionnalités séparés par des opérateurs « ET » et/ou « OU ».
Exemple: Fonctionnalités="opteron&video" or Fonctionnalités="rapide|plus rapide". Dans le premier exemple,
seuls les nœuds possédant à la fois la fonctionnalité « opteron » ET la fonctionnalité « vidéo » seront utilisés.
Il n'existe aucun mécanisme permettant de spécifier que vous souhaitez un nœud avec la fonctionnalité « opteron » et
un autre nœud avec la fonctionnalité « vidéo » si aucun nœud ne possède les deux fonctionnalités. Si un seul nœud
d'un ensemble d'options possibles doit être utilisé pour tous les nœuds alloués, puis utilisez le
Utilisez l'opérateur OU et placez les options entre crochets. Par exemple :
"Fonctionnalités=[rack1|rack2|rack3|rack4]" pourrait être utilisé pour spécifier que tous les nœuds doivent
être alloué sur un seul rack du cluster, mais n'importe lequel de ces quatre racks peut être
utilisé. Une requête peut également spécifier le nombre de nœuds nécessaires à une fonctionnalité donnée en
ajouter un astérisque et compter après le nom de la fonction. Par exemple
"Caractéristiques = graphiques * 4" indique qu'au moins quatre nœuds alloués doivent avoir le
Fonctionnalité « Graphiques ». Les contraintes avec nombre de nœuds ne peuvent être combinées qu'avec l'opérateur « ET ».
Opérateurs. La valeur peut être effacée avec une valeur de données vide, par exemple « Fonctionnalités = ».

Géométrie=
Réinitialisez la géométrie de tâche requise. Sur Blue Gene, la valeur doit être à trois chiffres.
séparés par « x » ou « », les chiffres représentent la taille de l'allocation en X, Y et Z.
dimensions (par exemple « 2x3x4 »).

Grès=
Spécifie une liste délimitée par des virgules de ressources consommables génériques. Le format de
Chaque entrée de la liste est « nom[:nombre[*cpu]] ». Le nom correspond au consommable.
ressource. Le nombre est le nombre de ces ressources avec une valeur par défaut de 1.
Les ressources spécifiées seront allouées au travail sur chaque nœud alloué, sauf si
« *cpu » est ajouté, auquel cas les ressources seront allouées par processeur
base. Les ressources consommables génériques disponibles sont configurables par le système
administrateur. Une liste des ressources consommables génériques disponibles sera imprimée
et la commande se terminera si l'argument de l'option est "help". Exemples d'utilisation
inclure "Gres=gpus:2*cpu,disk=40G" et "Gres=help".

JobId=
Identifiez les tâches à mettre à jour. La liste des tâches peut être une liste de tâches séparées par des virgules.
identifiants de tâches. Soit JobId or Nom du travail est nécessaire.

Licences=
Spécification des licences (ou autres ressources disponibles sur tous les nœuds du
cluster) comme décrit dans les pages de manuel salloc/sbatch/srun.

MinCPUsNode=
Définissez le nombre minimum de CPU par nœud du travail sur la valeur spécifiée.

Mémoire minimale du processeur=
Définissez la mémoire réelle minimale requise par CPU allouée pour le travail sur la valeur spécifiée
valeur. Soit Mémoire minimale du processeur or MinMemoryNode peut être défini, mais pas les deux.

MinMemoryNode=
Définissez la mémoire réelle minimale requise par nœud pour la tâche à la valeur spécifiée.
Mémoire minimale du processeur or MinMemoryNode peut être défini, mais pas les deux.

MinTmpDiskNode=
Définissez l'espace disque temporaire minimum requis par nœud pour le travail sur la valeur spécifiée
valeur. Seul l'administrateur Slurm ou root peut modifier ce paramètre.

Nom du travail=
Identifiez le nom des tâches à modifier ou définissez le nom de la tâche sur celui spécifié
valeur. Lorsqu'elle est utilisée pour identifier les tâches à modifier, toutes les tâches appartenant à tous les utilisateurs
sont modifiés à moins que le Identifiant d'utilisateur L'option est utilisée pour identifier un utilisateur spécifique.
JobId or Nom du travail est nécessaire.

Nice[=delta]
Ajustez la priorité de la tâche selon la valeur spécifiée. La valeur par défaut est 100.
La plage s'étend de -10000 10000 (priorité la plus élevée) à XNUMX XNUMX (priorité la plus basse). Valeur intéressante.
les modifications ne sont pas additives, mais écrasent toute valeur intéressante antérieure et sont appliquées à la
Priorité de base de la tâche. Seuls les utilisateurs privilégiés (administrateur Slurm ou root) peuvent l'exécuter.
spécifier un ajustement négatif.

Liste de nœuds=
Modifiez les nœuds alloués à une tâche en cours d'exécution pour réduire sa taille.
la liste des nœuds doit être un sous-ensemble des nœuds actuellement alloués au travail.
Plusieurs noms de nœuds peuvent être spécifiés à l'aide d'expressions de plage de nœuds simples (par exemple
« lx[10-20] »). Après la réduction de l'allocation d'une tâche, les tâches suivantes courir les commandes doivent
spécifiez explicitement le nombre de nœuds et de tâches qui sont valides pour la nouvelle allocation.

Nombre de processeurs= [- ]
Définissez le nombre minimum et éventuellement maximum de CPU à allouer au travail.

Nombre de nœuds= [- ]
Définissez le nombre minimum et éventuellement maximum de nœuds à allouer à la tâche. Si
le travail est déjà en cours d'exécution, utilisez ceci pour spécifier un nombre de nœuds inférieur à celui actuellement
allouées et les ressources précédemment allouées au travail seront abandonnées. Après
l'allocation d'un travail est réduite, par la suite courir les commandes doivent spécifier explicitement
Nombre de nœuds et de tâches valides pour la nouvelle allocation. Voir également Liste de nœuds
paramètre ci-dessus.

Nombre de tâches=
Définissez le nombre de tâches requises du travail sur la valeur spécifiée.

Partition=
Définissez la partition du travail sur la valeur spécifiée.

Priorité=
Définissez la priorité de la tâche à la valeur spécifiée. Notez qu'une priorité de tâche de zéro
empêche la planification de la tâche. En définissant la priorité d'une tâche à zéro,
est maintenu. Définissez la priorité sur une valeur différente de zéro pour permettre son exécution. Explicitement
la définition de la priorité d'un travail efface toute valeur précédemment définie et supprime le
La capacité du plugin Priority/Multifactor à gérer la priorité d'une tâche.
restaurer la capacité du plugin priorité/multifactoriel à gérer la priorité d'un travail, maintenir
puis relâchez la tâche. Seul l'administrateur Slurm ou root peut augmenter la taille de la tâche.
priorité.

QOS=
Définissez la qualité de service (QoS) de la tâche sur la valeur spécifiée. Cette valeur peut être :
effacé avec une valeur de données vide, "QOS=".

Liste de nœuds requis=
Définissez la liste des nœuds requis pour la tâche. Vous pouvez spécifier plusieurs noms de nœuds à l'aide de
Expressions de plage de nœuds simples (par exemple, « lx[10-20] »). La valeur peut être effacée avec un espace.
valeur des données, "ReqNodeList=".

Remettre en file d'attente=<0|1>
Indique si un travail doit être remis en file d'attente après une panne de nœud : 0 pour non, 1 pour
Oui.

Nom de la réservation=
Définissez la réservation de la tâche à la valeur spécifiée. La valeur peut être effacée en laissant un espace vide.
valeur de données, "ReservationName=".

Rotation=
Autoriser la rotation de la géométrie du projet. Les valeurs possibles sont « OUI » et « NON ».

Owned=
Définissez la capacité de la tâche à partager des nœuds avec d'autres tâches. Les valeurs possibles sont « OUI ».
et « NON ». Cette option ne peut être modifiée que pour les tâches en attente.

Heure de début=
Définissez l'heure de début de la tâche au plus tôt. Elle accepte les heures de la forme HH:MM:SS à
exécuter une tâche à une heure précise de la journée (les secondes sont facultatives). (Si cette heure est
déjà passé, le lendemain est supposé.) Vous pouvez également spécifier minuit, midi, Else
(3h) ou l'heure du thé (4h) et vous pouvez avoir une heure de la journée suffixée avec AM or PM pour
Le matin ou le soir. Vous pouvez également préciser le jour de la mission.
exécuter, en spécifiant une date de la forme MMJJAA or MM / JJ / AA or MM.JJ.AA, ou une date et
le temps comme AAAA-MM-JJ[THH:MM[:SS]]. Vous pouvez également donner des heures comme maintenant + compter
unités de temps, où les unités de temps peuvent être minutes, heures, jours, ou semaines et vous pouvez
dites à Slurm d'exécuter le travail aujourd'hui avec le mot-clé aujourd'hui et pour exécuter le travail demain
avec le mot-clé demain.

Remarques sur les spécifications de date/heure :
- bien que le champ « secondes » de la spécification horaire HH:MM:SS soit autorisé par
le code, notez que l'heure d'interrogation du planificateur Slurm n'est pas assez précise pour
garantir l'envoi du travail à la seconde exacte. L'emploi sera admissible à
démarrer au prochain sondage après l'heure spécifiée. L'intervalle de sondage exact
dépend du planificateur Slurm (par exemple, 60 secondes avec le sched/builtin par défaut).
- si aucune heure (HH:MM:SS) n'est spécifiée, la valeur par défaut est (00:00:00).
- si une date est spécifiée sans année (par exemple, MM/JJ), alors l'année en cours est
supposé, à moins que la combinaison de MM/DD et HH:MM:SS soit déjà passée pour cela
année, auquel cas l'année suivante est utilisée.

Interrupteurs= [@ ]
Lorsqu'une topologie arborescente est utilisée, cela définit le nombre maximum de commutateurs souhaités
pour l'allocation des tâches. Si Slurm trouve une allocation contenant plus de commutateurs que
le nombre spécifié, le travail reste en attente jusqu'à ce qu'il trouve une allocation
avec le nombre de commutateurs souhaité ou la limite de temps expire. Par défaut, il n'y a pas de commutateur.
Limite de comptage et délai sans limite de temps. Réglez le compteur à zéro pour nettoyer tout
nombre précédemment défini (désactivant la limite). Le délai maximal de la tâche peut être
limité par l'administrateur système à l'aide du Paramètres du planificateur paramétrage
paramètre avec le max_switch_wait option de paramètre. Voir aussi attendre le changement.

Limite de temps=
Durée de la tâche. Format de sortie : [jours-]heures:minutes:secondes ou
« ILLIMITÉ ». Format d'entrée (pour Mise à jour commande) l'ensemble est minutes, minutes:secondes,
heures:minutes:secondes, jours-heures, jours-heures:minutes ou
jours-heures:minutes:secondes. La résolution temporelle est d'une minute et les valeurs en secondes sont
arrondi à la minute supérieure. Pour modifier la limite de temps d'une tâche, précisez
une nouvelle valeur de limite de temps ou précéder le temps d'un « + » ou d'un « - » pour incrémenter ou
décrémenter la limite de temps actuelle (par exemple, « TimeLimit=+30 »). Pour l'incrémenter ou
diminuer la limite de temps actuelle, le JobId la spécification doit précéder la
Limite de temps spécification. Seul l'administrateur Slurm ou root peut augmenter la taille des tâches.
Limite de temps.

Identifiant d'utilisateur=
Utilisé avec le Nom du travail option permettant d'identifier les tâches à modifier. Soit un nom d'utilisateur
ou un identifiant numérique (UID) peut être spécifié.

Clé WC=
Définissez la clé de caractérisation de la charge de travail du travail sur la valeur spécifiée.

REMARQUE : La commande « show », lorsqu'elle est utilisée avec « job » ou « job "
L'entité affiche des informations détaillées sur un ou plusieurs emplois. La plupart de ces informations
peut être modifié à l'aide de la commande « update job » comme décrit ci-dessus. Cependant,
les champs suivants affichés par la commande show job sont en lecture seule et ne peuvent pas être
modifié:

Noeud d'allocation : Sid
Nœud local et identifiant système effectuant l'allocation des ressources.

Drapeau de lot
Les travaux soumis à l'aide de la commande sbatch ont BatchFlag défini sur 1. Travaux soumis
en utilisant d'autres commandes, BatchFlag est défini sur 0.

CoreSpec=
Nombre de cœurs à réserver par nœud pour l'utilisation du système. La tâche sera facturée.
Ces cœurs, mais impossible à utiliser. Le cas échéant, un « * » sera indiqué.
contraint.

Heure de fin
L'heure à laquelle la tâche est censée se terminer en fonction de la limite de temps de la tâche. Lorsque
Si le travail se termine plus tôt, ce champ sera mis à jour avec l'heure de fin réelle.

Code de sortie= :
État de sortie de la tâche signalé par la fonction wait(). Le premier chiffre correspond à
code de sortie, généralement défini par la fonction exit(). Le deuxième chiffre du
signal qui a provoqué l'arrêt du processus s'il a été arrêté par un signal.

Groupid
Le groupe sous lequel le travail a été soumis.

État de l'emploi
L'état actuel du travail.

Liste de nœuds
La liste des nœuds alloués au travail.

Index de liste de nœuds
Les NodeIndices exposent les indices internes dans la table de nœuds associée au
nœud(s) alloué(s) au travail.

NtasksPerN:B:S:C=
: : :
Spécifie le nombre de tâches à démarrer par composant matériel (nœud,
(carte mère, socket et noyau). Les valeurs non contraintes peuvent être affichées sous la forme « 0 » ou « * ».

Temps de préemption
Heure à laquelle le travail a été signalé comme étant sélectionné pour la préemption. (Significatif
uniquement pour PreemptMode=CANCEL et la partition ou la QOS avec laquelle le travail est
(associé a une valeur GraceTime désignée.)

PréSusTime
Heure d'exécution de la tâche avant la dernière suspension.

Raison La raison pour laquelle le travail n'est pas en cours d'exécution : par exemple, en attente de « Ressources ».

ReqB:S:C:T=
: : :
Spécifie le nombre de différents composants matériels demandés par le travail.
Les valeurs non contraintes peuvent être affichées sous la forme « 0 » ou « * ».

SecsPreSuspend=
Si le travail est suspendu, il s'agit du temps d'exécution accumulé par le travail (en secondes)
avant d'être suspendu.

Chaussettes/Nœud=
Nombre de sockets souhaités par nœud

Heure de soumission
L'heure et la date (en temps universel coordonné, UTC) auxquelles le travail a été effectué
soumis. Le format de la sortie est identique à celui du champ EndTime.

REMARQUE : Si une tâche est remise en file d'attente, l'heure de soumission est réinitialisée. Pour obtenir l'original,
au moment de la soumission, il est nécessaire d'utiliser la commande « sacct -j » ]" commande également
désignant l'option -D ou --duplicate pour afficher toutes les entrées en double pour un
d'emplois.

SuspendTime
Heure à laquelle le travail a été suspendu ou repris pour la dernière fois.

Identifiant d'utilisateur L'utilisateur sous lequel le travail a été soumis.

REMARQUE sur les informations affichées pour différents états de travail :
Lorsque vous soumettez une demande pour la fonction « afficher le travail », le processus scontrol effectue une
Appel de requête RPC à slurmctld avec un message de type REQUEST_JOB_INFO. Si l'état
du travail est EN ATTENTE, puis il renvoie des informations détaillées telles que : min_nodes,
min_procs, cpus_per_task, etc. Si l'état est différent de PENDING, le code suppose
qu'il est dans un autre état tel que EN COURS D'EXÉCUTION, TERMINÉ, etc. Dans ces cas, le
Le code renvoie explicitement zéro pour ces valeurs. Ces valeurs sont dénuées de sens une fois
les ressources du travail ont été allouées et le travail a commencé.

DONNÉES TECHNIQUES POUR LES CANADIENS MISE A JOUR COMMANDER, ÉTAPES

ID d'étape= [. ]
Identifiez l'étape à mettre à jour. Si l'identifiant de tâche est indiqué, mais qu'aucun identifiant d'étape n'est spécifié,
spécifié, toutes les étapes du travail identifié seront modifiées. Ceci
une spécification est requise.

Fichier de compilation=
Mettre à jour une étape avec des informations sur sa réalisation. Peut être utile si l'étape est terminée.
Les statistiques ne sont pas directement accessibles via un plugin jobacct_gather. Le fichier est
un fichier délimité par des espaces avec le format pour la version 1 est le suivant

1 34461 0 2 0 3 1361906011 1361906015 1 1 3368 13357 /bin/sommeil
ABCDEFGHIJKLM

Description des champs :

Une version de fichier
B ALPES apid
Blocs C
Blocs extérieurs D
Statut de sortie E
F nombre de CPU alloués
Heure de début G
Heure de fin H
Je l'ai toujours
J stime
K maxrss
Fluide
Nom de la commande M

Limite de temps=
Durée de la tâche. Format de sortie : [jours-]heures:minutes:secondes ou
« ILLIMITÉ ». Format d'entrée (pour Mise à jour commande) l'ensemble est minutes, minutes:secondes,
heures:minutes:secondes, jours-heures, jours-heures:minutes ou
jours-heures:minutes:secondes. La résolution temporelle est d'une minute et les valeurs en secondes sont
arrondi à la minute supérieure. Si vous modifiez la limite de temps d'une étape,
spécifiez une nouvelle valeur de limite de temps ou faites précéder le temps d'un « + » ou d'un « - » pour l'incrémenter
ou diminuer la limite de temps actuelle (par exemple, « TimeLimit=+30 »). Pour l'incrémenter,
ou diminuer la limite de temps actuelle, le ID d'étape la spécification doit précéder la
Limite de temps spécification.

DONNÉES TECHNIQUES POUR LES CANADIENS MISE A JOUR COMMANDER, NUDS

NomNoeud=
Identifiez le(s) nœud(s) à mettre à jour. Vous pouvez spécifier plusieurs noms de nœuds à l'aide de
Expressions simples de plage de nœuds (par exemple « lx[10-20] »). Cette spécification est obligatoire.

Comment ça marche=
Identifier la ou les caractéristiques à associer au nœud spécifié. Toute caractéristique précédemment
Les caractéristiques définies seront remplacées par la nouvelle valeur. Les caractéristiques attribuées via
contrôle ne persistera qu'au redémarrage du démon slurmctld avec le -R
Fichiers d'options et d'état préservés ou réception d'un SIGHUP par slurmctld.
slurm.conf avec toutes les modifications censées être persistantes lors des redémarrages normaux de
slurmctld ou l'exécution de contrôle reconfigurer.

Grès=
Identifier les ressources génériques à associer au nœud spécifié.
les ressources génériques précédemment définies seront écrasées par la nouvelle valeur.
Les spécifications pour plusieurs ressources génériques doivent être séparées par des virgules.
la spécification de ressource se compose d'un nom suivi de deux points facultatifs avec un
Valeur numérique (la valeur par défaut est 10000) (par exemple : « Gres=bandwidth:XNUMX,gpus »). Générique
ressources attribuées via contrôle ne persistera que pendant le redémarrage de la
démon slurmctld avec le -R fichiers d'options et d'état préservés ou slurmctld
Réception d'une connexion. Mettre à jour le fichier slurm.conf avec les modifications destinées à être persistantes.
lors des redémarrages normaux de slurmctld ou de l'exécution de contrôle reconfigurer.

Raison=
Identifiez la raison pour laquelle le nœud est en état « DOWN », « DRAINED », « FAILING » ou
État « ÉCHEC ». Utilisez des guillemets pour encadrer une raison comportant plusieurs mots.

État=
Identifiez l'état à attribuer au nœud. Les états possibles sont « NoResp » (pas de réponse)
"ALLOC", "ALLOUÉ", "TERMINÉ", "DRAIN", "ERREUR", "ÉCHEC", "ÉCHEC",
"FUTUR" "INACTIF", "ENTRETIEN", "MIXTE", "PERFECTIONNEMENT/PNJ", "RÉSERVÉ", "HORS TENSION",
« POWER_UP », « RESUME » ou « UNDRAIN ». Ces états ne peuvent pas tous être définis à l'aide de la commande
Avec la commande scontrol, seuls les éléments suivants peuvent être utilisés : « NoResp », « DRAIN », « FAIL », « FUTURE »,
« REPRISE », « MISE HORS TENSION », « MISE SOUS TENSION » et « DRAINAGE ». Si un nœud est dans un état « MIXTE »
Cela signifie généralement que le nœud est dans plusieurs états. Par exemple, si seulement une partie du
le nœud est « ALLOUÉ » et le reste du nœud est « INACTIF », l'état sera « MIXTE ».
Si vous souhaitez supprimer un nœud du service, vous souhaitez généralement définir son état sur
« DRAIN ». « FAILING » est similaire à « DRAIN », sauf que certaines applications chercheront
pour abandonner ces nœuds avant la fin de la tâche. « PERFCTRS/NPC » indique que
Les compteurs de performances réseau associés à ce nœud sont en cours d'utilisation, ce qui rend ce
nœud comme inutilisable pour d'autres tâches. « RÉSERVÉ » indique que le nœud est dans un
Réservation avancée et non disponible en général. « RESUME » n'est pas un nœud réel
état, mais changera l'état d'un nœud de « DRAINÉ », « DRAINAGE », « ARRÊT » ou « MAINT »
à l'état « IDLE » ou « ALLOCATED » selon le cas. « UNDRAIN » efface le nœud
d'être vidé (comme « RESUME »), mais ne changera pas l'état de base du nœud (par exemple
« DOWN »). Définir un nœud sur « DOWN » désactivera tous les travaux en cours et suspendus sur ce nœud.
nœud à terminer. « POWER_DOWN » et « POWER_UP » utiliseront le
SuspendProg et ResumeProg programmes permettant de placer explicitement un nœud dans ou hors d'une alimentation
mode économie d'énergie. Si un nœud est déjà en cours de mise sous tension ou hors tension,
La commande n'aura aucun effet jusqu'à ce que le ResumeTimeout ou le SuspendTimeout configuré soit
atteint. L'état « NoResp » ne définira l'indicateur « NoResp » que pour un nœud sans
modifier son état sous-jacent. Bien que tous les états ci-dessus soient valides, certains
Il ne s'agit pas de nouveaux états de nœud valides compte tenu de leur état antérieur. Si le code d'état du nœud
imprimé est suivi de « ~ », cela indique que le nœud est actuellement en mode d'économie d'énergie
mode (fonctionnement généralement à fréquence réduite). Si le code d'état du nœud est respecté
par « # », cela indique que le nœud est en cours de mise sous tension ou de configuration. Si
le code d'état du nœud est suivi de « $ », cela indique que le nœud est actuellement dans un
réservation avec une valeur d'indicateur de « maintenance » ou dont le redémarrage est prévu.
En général, seuls « DRAIN », « FAIL » et « RESUME » doivent être utilisés. REMARQUE : Le contrôle scontrol
Cette commande ne doit pas être utilisée pour modifier l'état d'un nœud sur les systèmes Cray. Utilisez les outils Cray.
tel que xtprocadmin à la place.

Poids=
Identifier le poids à associer aux nœuds spécifiés. Ceci permet des modifications dynamiques.
au poids associé aux nœuds, qui sera utilisé pour le nœud suivant
décisions d'allocation. Poids attribué via contrôle ne persistera qu'à travers le
redémarrage du démon slurmctld avec le -R fichiers d'options et d'état conservés ou
Réception d'une connexion SIGHUP par slurmctld. Mettez à jour le fichier slurm.conf avec les modifications à venir.
persistant lors des redémarrages normaux de slurmctld ou de l'exécution de contrôle
reconfigurer.

DONNÉES TECHNIQUES POUR LES CANADIENS MISE A JOUR COMMANDER, FRONTEND

Nom du frontend=
Identifiez le nœud frontal à mettre à jour. Cette spécification est obligatoire.

Raison=
Identifiez la raison pour laquelle le nœud est en état « DOWN » ou « DRAIN ». Utilisez des guillemets pour
inclure une raison comportant plus d'un mot.

État=
Identifiez l'état à attribuer au nœud frontal. Les valeurs possibles sont :
« DOWN », « DRAIN » ou « RESUME ». Pour supprimer un nœud frontal du service,
En général, il faut définir son état sur « DRAIN ». « RESUME » n'est pas un nœud réel.
état, mais renverra un nœud frontal « DRAINED », « DRAINING » ou « DOWN » à
Service, état « INACTIF » ou « ATTRIBUÉ » selon le cas. Configuration d'un frontal
Le nœud « DOWN » entraînera l'arrêt de tous les travaux en cours et suspendus sur ce nœud.
terminé.

DONNÉES TECHNIQUES POUR LES CANADIENS CRÉER, MISE À JOUR, ET EFFACER COMMANDES, CLOISONS

Autoriser les groupes=
Identifiez les groupes d'utilisateurs susceptibles d'utiliser cette partition. Plusieurs groupes peuvent être
spécifié dans une liste séparée par des virgules. Pour permettre à tous les groupes d'utiliser la partition
spécifiez « AllowGroups=ALL ».

AllocNodes=
Liste séparée par des virgules de nœuds à partir desquels les utilisateurs peuvent exécuter des tâches dans la partition.
Les noms de nœuds peuvent être spécifiés à l'aide de la syntaxe d'expression de plage de nœuds décrite ci-dessus.
La valeur par défaut est « TOUS ».

Autre=
Partition alternative à utiliser si l'état de cette partition est « DRAIN » ou
« INACTIF ». La valeur « AUCUN » effacera une partition alternative précédemment définie.

Réglage par défaut=
Spécifiez si cette partition doit être utilisée par des tâches qui n'identifient pas explicitement un
partition à utiliser. Les valeurs de sortie possibles sont « OUI » et « NON ». Pour modifier
la partition par défaut d'un système en cours d'exécution, utilisez la commande scontrol update et définissez
Par défaut = oui pour la partition que vous souhaitez définir comme nouvelle valeur par défaut.

Heure par défaut=
Limite de temps d'exécution utilisée pour les tâches sans valeur. Si elle n'est pas définie, la valeur est MaxTime.
sera utilisé. Le format est le même que pour MaxTime.

DefMemParCPU=
Définissez la mémoire par défaut à allouer par processeur pour les tâches de cette partition.
la taille de la mémoire est spécifiée en mégaoctets.

DefMemPerNode=
Définissez la mémoire par défaut à allouer par nœud pour les tâches de cette partition.
la taille de la mémoire est spécifiée en mégaoctets.

Désactiver RootJobs=
Indiquez si les tâches peuvent être exécutées en tant qu'utilisateur root. Les valeurs possibles sont « OUI » et « NON ».

Temps de grâce=
Spécifie, en unités de secondes, le délai de grâce de préemption à étendre à un travail
qui a été sélectionné pour la préemption. La valeur par défaut est zéro, pas de préemption
un délai de grâce est autorisé sur cette partition ou cette qualité de service. (Significatif uniquement pour
PreemptMode=ANNULER)

caché=
Spécifiez si la partition et ses tâches doivent être masquées.
Par défaut, les partitions ne seront pas signalées par les API ou les commandes Slurm.
les valeurs sont « OUI » et « NON ».

MaxMemParCPU=
Définissez la mémoire maximale à allouer par processeur pour les tâches de cette partition.
la taille de la mémoire est spécifiée en mégaoctets.

MaxMemPerCNode=
Définissez la mémoire maximale à allouer par nœud pour les tâches de cette partition.
la taille de la mémoire est spécifiée en mégaoctets.

MaxNodes=
Définissez le nombre maximal de nœuds qui seront alloués à une tâche unique dans le
Partition. Spécifiez un nombre : « INFINI » ou « ILLIMITÉ ». (Sur un système de type Bluegene)
cela représente un nombre de nœuds C.) Modification du MaxNodes d'une partition n'a pas
effet sur les tâches dont l'exécution a déjà commencé.

Durée maximale=
Durée maximale d'exécution des tâches. Format de sortie : [jours-]heures:minutes:secondes ou
« ILLIMITÉ ». Format d'entrée (pour Mise à jour commande) est minutes, minutes:secondes,
heures:minutes:secondes, jours-heures, jours-heures:minutes ou
jours-heures:minutes:secondes. La résolution temporelle est d'une minute et les valeurs en secondes sont
arrondi à la minute supérieure. En changeant le Durée maximale d'une partition n'a aucun effet
sur les travaux dont l'exécution a déjà commencé.

MinNodes=
Définissez le nombre minimum de nœuds qui seront alloués à une tâche unique dans le
partition. (Sur un système de type Bluegene, cela représente un nombre de nœuds C.) Modification
le MinNodes d'une partition n'a aucun effet sur les tâches qui ont déjà commencé
exécution.

Nodes=
Identifiez le(s) nœud(s) à associer à cette partition. Plusieurs noms de nœuds peuvent être utilisés.
être spécifié à l'aide d'expressions simples de plage de nœuds (par exemple, « lx[10-20] »). Notez que
Les tâches ne peuvent être associées qu'à une seule partition à la fois. Veuillez indiquer une valeur vide.
valeur pour supprimer tous les nœuds d'une partition : « Nodes = ». Modification de la Nodes dans un
la partition n'a aucun effet sur les tâches qui ont déjà commencé à s'exécuter.

Nom de la partition=
Identifiez la partition à mettre à jour. Cette spécification est obligatoire.

Mode Préemption=
Réinitialiser le mécanisme utilisé pour préempter les tâches dans cette partition si Type de préemption is
configuré pour préemption/priorité_partitionLe mécanisme de préemption par défaut est spécifié
par l'ensemble du cluster Mode Préemption paramètre de configuration. Les valeurs possibles sont
« OFF », « ANNULER », « POINT DE CONTRÔLE », « REMETTRE EN FILE D'ATTENTE » et « SUSPENDRE ».

Priorité=
Les tâches soumises à une partition de priorité supérieure seront expédiées avant d'être en attente
les tâches dans les partitions de priorité inférieure et, si possible, elles préempteront les tâches en cours d'exécution
des partitions de priorité inférieure. Notez que la priorité d'une partition est prioritaire.
sur la priorité d'une tâche. La valeur ne doit pas dépasser 65533 XNUMX.

RootOnly=
Spécifiez si seules les demandes d'allocation initiées par l'utilisateur root seront satisfaites. Ceci
peut être utilisé pour restreindre le contrôle de la partition à un méta-ordonnanceur.
les valeurs sont « OUI » et « NON ».

ReqResv=
Précisez si seules les demandes d'allocation désignant une réservation seront satisfaites.
Ceci est utilisé pour restreindre l'utilisation de la partition afin qu'elle soit autorisée uniquement dans une réservation.
Les valeurs possibles sont « OUI » et « NON ».

Owned= [: ]
Indiquez si les nœuds de cette partition peuvent être partagés par plusieurs tâches. Valeurs possibles.
sont « OUI », « NON », « EXCLUSIF » et « FORCE ». Un nombre de tâches optionnel précise le nombre
des tâches peuvent être attribuées pour utiliser chaque ressource.

État=
Spécifiez si les tâches peuvent être allouées à des nœuds ou mises en file d'attente dans cette partition. Possible
les valeurs sont « UP », « DOWN », « DRAIN » et « INACTIVE ».

UP Désigne que de nouveaux travaux peuvent être mis en file d'attente sur la partition et que les travaux peuvent
se voir attribuer des nœuds et s'exécuter à partir de la partition.

BAS Désigne que les nouveaux travaux peuvent être mis en file d'attente sur la partition, mais les travaux en file d'attente
Les tâches déjà exécutées ne peuvent pas être allouées à des nœuds et exécutées à partir de la partition.
Les tâches exécutées sur la partition continuent de s'exécuter. Les tâches doivent être explicitement
annulé pour forcer leur résiliation.

VIDANGE Désigne qu'aucun nouveau travail ne peut être mis en file d'attente sur la partition (travail
les demandes de soumission seront refusées avec un message d'erreur), mais les travaux
Les nœuds déjà en file d'attente sur la partition peuvent être alloués et exécutés. Voir aussi
la spécification de partition « Alternative ».

INACTIVE Désigne qu'aucun nouveau travail ne peut être mis en file d'attente sur la partition, et les travaux
Les nœuds déjà en file d'attente ne peuvent pas être alloués et exécutés. Voir aussi
Spécification de partition « alternative ».

DONNÉES TECHNIQUES POUR LES CANADIENS MISE A JOUR COMMANDER, POWERCAP

Capuchon de puissance=
Définissez la quantité de watts à laquelle le cluster est limité. Spécifiez un nombre, « INFINI » pour
activer la logique de plafonnement de puissance sans restriction de puissance ou « 0 » pour désactiver le
Logique de limitation de puissance. Mettre à jour le fichier slurm.conf avec les modifications censées être persistantes.
lors des redémarrages normaux de slurmctld ou de l'exécution de contrôle reconfigurer.

DONNÉES TECHNIQUES POUR LES CANADIENS CRÉER, MISE À JOUR, ET EFFACER COMMANDES, RÉSERVATIONS

Réservation=
Identifiez le nom de la réservation à créer, mettre à jour ou supprimer. Ceci
Ce paramètre est requis pour la mise à jour et est le seul paramètre pour la suppression. Pour la création,
si vous ne souhaitez pas donner de nom de réservation, utilisez "scontrol create res ..." et un
le nom sera créé automatiquement.

hybrides=
Liste des comptes autorisés à utiliser les nœuds réservés, par exemple
« Comptes = physcode1,physcode2 ». Un utilisateur de n'importe quel compte peut utiliser le compte réservé.
nœuds. Une nouvelle réservation doit spécifier des utilisateurs et/ou des comptes. Si les utilisateurs et
Les comptes sont spécifiés, un travail doit correspondre aux deux pour pouvoir utiliser la réservation.
Les comptes peuvent également se voir refuser l'accès aux réservations en précédant tous les comptes
Les noms avec un « - ». Le signe égal peut être précédé d'un « - ». Par exemple :
"Comptes=-physcode1,-physcode2" ou "Comptes-=physcode1,physcode2" autorisera tout
compte, sauf physcode1 et physcode2, pour utiliser la réservation. Vous pouvez ajouter ou
supprimer des comptes individuels d'une réservation existante à l'aide de la commande de mise à jour
et en ajoutant un signe « + » ou « - » avant le signe « = ». Si l'accès à des comptes est refusé,
une réservation (nom de compte précédé d'un « - »), alors tous les autres comptes sont
implicitement autorisé à utiliser la réservation et il n'est pas possible de le faire également explicitement
spécifier les comptes autorisés.

BurstBuffer= [, ,...]
Spécification des ressources de tampon de rafale à réserver. « buffer_spec »
se compose de quatre éléments : [plugin:][type:]#[units] « plugin » est le tampon d'éclatement
Nom du plugin : actuellement « cray » ou « generic ». Si aucun plugin n'est spécifié,
la réservation s'applique à tous les plugins de tampon d'éclatement configurés. « type » spécifie un
Ressource de tampon d'éclatement générique Cray, par exemple « nœuds ». Si « type » n'est pas défini
Le nombre est une mesure d'espace de stockage. L'unité peut être « N ».
(nœuds), « GB » (gigaoctets), « TB » (téraoctets), « PB » (pétaoctets), etc. avec le
Les unités par défaut sont des gigaoctets pour les réservations d'espace de stockage. Par exemple
"BurstBuffer=cray:2TB" (réserver 2 To de stockage plus 3 nœuds du plugin Cray)
ou "BurstBuffer=100GB" (réserver 100 Go de stockage à partir de tous les tampons de rafale configurés
Les tâches utilisant cette réservation ne sont pas limitées à ces tampons de rafale.
ressources, mais peuvent utiliser ces ressources réservées ainsi que celles qui sont généralement
disponible.

CoreCnt=
Cette option n'est prise en charge que lorsque SelectType=select/cons_res. Identifier le nombre de
cœurs à réserver. Si NodeCnt est utilisé, il s'agit du nombre total de cœurs à réserver.
réserve où le nombre de cœurs par nœud est défini par CoreCnt/NodeCnt. Si une liste de nœuds est utilisée, cette valeur doit être
être un tableau de numéros de cœur par nœud : Nodes=node[1-5] CoreCnt=2,2,3,3,4

Licences=
Spécification des licences (ou autres ressources disponibles sur tous les nœuds du
cluster) qui doivent être réservés. Les noms de licence peuvent être suivis de deux points et
Nombre (par défaut : un). Les noms de licences multiples doivent être séparés par une virgule.
(par exemple, « Licenses=foo:4,bar »). Une nouvelle réservation doit spécifier une ou plusieurs ressources.
à inclure : NodeCnt, nœuds et/ou licences. Si une réservation inclut
Licences, mais pas de NodeCnt ou de Nodes, alors l'option Drapeaux = LICENCE UNIQUEMENT doit également être
spécifié. Les travaux utilisant cette réservation ne sont pas limités à ces licences, mais
peut utiliser ces licences réservées ainsi que toutes celles qui sont généralement disponibles.

NodeCnt= [,num,...]
Indiquez le nombre de nœuds à réserver. Ce nombre peut inclure le suffixe « k » ou
« K », auquel cas le nombre spécifié est multiplié par 1024 XNUMX. Sur BlueGene
systèmes, ce nombre représente un nombre de nœuds C (nœuds de calcul) et sera arrondi
au besoin pour réserver des nœuds entiers (plans médians). Afin d'optimiser la topologie
de l'allocation des ressources sur une nouvelle réservation (pas sur une réservation mise à jour),
Des dimensions spécifiques peuvent être requises pour la réservation. Par exemple, si vous
je souhaite réserver 4096 nœuds C sur un système BlueGene qui peuvent être utilisés pour allouer deux
Pour les tâches comportant chacune 2048 nœuds C, spécifiez « NodeCnt=2k,2k ». Une nouvelle réservation doit être effectuée.
spécifiez une ou plusieurs ressources à inclure : NodeCnt, Nodes et/ou Licenses.

Nodes=
Identifiez le(s) nœud(s) à réserver. Vous pouvez spécifier plusieurs noms de nœuds à l'aide de
Expressions de plage de nœuds simples (par exemple, « Nodes=lx[10-20] »). Spécifiez une valeur de données vide.
Pour supprimer tous les nœuds d'une réservation : « Nodes = ». Une nouvelle réservation doit spécifier
une ou plusieurs ressources à inclure : NodeCnt, nœuds et/ou licences.
La spécification « ALL » réservera tous les nœuds. Définir Drapeaux=PART_NODES et
PartitionName= pour que les modifications dans les nœuds associés à une partition
peut également se refléter dans les nœuds associés à une réservation.

Heure de début=
L'heure de début de la réservation. Toute nouvelle réservation doit préciser une heure de début.
Il accepte les temps de la forme HH:MM:SS pour une heure précise de la journée (les secondes sont
facultatif). (Si cette heure est déjà passée, le jour suivant est supposé.) Vous pouvez également
spécifier minuit, midi, Else (3h) ou l'heure du thé (4hXNUMX) et vous pouvez avoir un
heure du jour suffixée par AM or PM pour courir le matin ou le soir. Tu
peut également dire quel jour le travail sera exécuté, en spécifiant une date du formulaire MMJJAA
or MM / JJ / AA or MM.JJ.AA, ou une date et une heure comme AAAA-MM-JJ[THH:MM[:SS]]. Vous pouvez
donne aussi des moments comme maintenant + compter unités de temps, où les unités de temps peuvent être minutes,
heures, jours, ou semaines et vous pouvez dire à Slurm d'exécuter le travail aujourd'hui avec le mot-clé
aujourd'hui et exécuter le travail demain avec le mot-clé demain. Vous ne pouvez pas mettre à jour le
Heure de début d'une réserve dans ACTIVE Etat.

Heure de fin=
L'heure de fin de la réservation. Toute nouvelle réservation doit préciser une heure de fin ou une
durée. Les formats valides sont les mêmes que pour StartTime.

Durée=
La durée d'une réservation. Toute nouvelle réservation doit préciser une heure de fin ou une
durée. Les formats valides sont minutes, minutes:secondes, heures:minutes:secondes,
jours-heures, jours-heures:minutes, jours-heures:minutes:secondes ou ILLIMITÉ. Temps
la résolution est d'une minute et les valeurs de seconde sont arrondies à la minute suivante.
Le format de sortie est toujours [jours-]heures:minutes:secondes.

Nom de la partition=
Identifiez la partition à réserver.

Drapeaux=
Indicateurs associés à la réservation. Vous pouvez ajouter ou supprimer des indicateurs individuels.
une réservation existante en ajoutant un signe « + » ou « - » avant le signe « = ».
exemple : Drapeaux-=QUOTIDIEN (REMARQUE : ce raccourci n'est pas pris en charge pour tous les drapeaux).
Les indicateurs actuellement pris en charge incluent :

ANY_NODES Il s'agit d'une réservation pour les tampons d'éclatement et/ou les licences uniquement et non
nœuds de calcul. Si cet indicateur est activé, une tâche utilisant cette réservation peut
utiliser les tampons de rafale et/ou les licences associés ainsi que tout calcul
nœuds. Si cet indicateur n'est pas activé, une tâche utilisant cette réservation peut utiliser
uniquement les nœuds et les licences associés à la réservation.

DAILY Répétez la réservation à la même heure chaque jour

PREMIERS_CORES Utilisez uniquement les cœurs portant le numéro le plus bas sur un nœud.

IGNORER_EMPLOIS Ignorer les tâches en cours d'exécution lors de la création de la réservation.
peut être particulièrement utile lors de la réservation de tous les nœuds du système pour
maintenance.

LICENCE UNIQUEMENT See ANY_NODES.

ENTRETIEN Le mode maintenance bénéficie d'un traitement comptable particulier.
la partition est autorisée à utiliser des ressources qui se trouvent déjà dans une autre
réservation.

CHEVAUCHER Cette réservation peut être allouée à des ressources qui sont déjà en
une autre réservation.

PART_NODES Cet indicateur peut être utilisé pour réserver tous les nœuds dans le domaine spécifié
partition. PartitionName et Nodes=ALL doivent être spécifiés ou ceci
l'option est ignorée.

REMPLACER Les ressources allouées aux tâches sont automatiquement réapprovisionnées en utilisant le temps d'inactivité
ressources. Cette option peut être utilisée pour maintenir un nombre constant de
ressources inactives disponibles pour les tâches en attente (sous réserve de disponibilité
ressources inutilisées). Ceci doit être utilisé avec le NodeCnt réservation
option ; n'identifiez pas les nœuds spécifiques à inclure dans le
réservation. Cette option n'est pas prise en charge sur les systèmes IBM Bluegene.

SPEC_NODES La réservation est destinée à des nœuds spécifiques (sortie uniquement)

ALLOCATION_STATIQUE Faites en sorte qu'une fois les nœuds sélectionnés pour une réservation, ils ne
changement. Sans cette option, lorsque des nœuds sont sélectionnés pour un
réservation et on descend la réservation sélectionnera un nouveau nœud
pour combler le poste.

TIME_FLOAT L'heure de début de la réservation est relative à l'heure actuelle et se déplace
avancer dans le temps (par exemple, un StartTime=now+10minutes sera toujours
(10 minutes dans le futur).

HEBDOMADAIRE Répétez la réservation à la même heure chaque semaine

Comment ça marche=
Définissez les fonctionnalités du nœud requis pour la réservation. Plusieurs valeurs peuvent être séparées par « & ».
si toutes les fonctionnalités sont requises (opération AND) ou séparées par « | » si l'une des
Les fonctionnalités spécifiées sont requises (opération OU). La valeur peut être effacée en laissant un espace vide.
valeur de données, "Fonctionnalités=".

Utilisateurs=
Liste des utilisateurs autorisés à utiliser les nœuds réservés, par exemple
« Utilisateur=jones1,smith2 ». Une nouvelle réservation doit spécifier des utilisateurs et/ou des comptes. Si
les utilisateurs et les comptes sont spécifiés, un travail doit correspondre aux deux pour pouvoir utiliser le
réservation. L'accès aux réservations peut également être refusé aux utilisateurs en précédant tous les
Les noms d'utilisateur sont précédés de « - ». Le signe égal est précédé de « - ». Par exemple :
"Utilisateur=-jones1,-smith2" ou "Utilisateur-=jones1,smith2" autorisera n'importe quel utilisateur sauf jones1
et Smith2 pour utiliser la réservation. Vous pouvez ajouter ou supprimer des utilisateurs individuels d'un compte.
réservation existante en utilisant la commande de mise à jour et en ajoutant un signe « + » ou « - »
avant le signe « = ». Si l'accès à une réservation est refusé aux utilisateurs (nom d'utilisateur
précédé d'un '-'), alors tous les autres utilisateurs sont implicitement autorisés à utiliser le
réservation et il n'est pas possible de spécifier explicitement les utilisateurs autorisés.

TROIS=
Liste des TRES requis pour la réservation, séparés par des virgules. TRES actuellement pris en charge.
les types avec réservations sont : CPU, Node, License et BB. CPU et Node suivent les
même format que les paramètres CoreCnt et NodeCnt respectivement. Les noms de licence peuvent être
suivi d'un '=' égal et d'un nombre :

Licence/ = [,Licence/ = ,...]

BurstBuffer peut être spécifié de la même manière que le paramètre BurstBuffer. Le seul
la différence est que le symbole deux-points « : » doit être remplacé par un « = » égal afin de
suivre le format TRES.

Quelques exemples de spécifications TRES valides :

TRES=cpu=5,bb/cray=4,license/iop1=1,license/iop2=3

TRES=node=5k,licence/iop1=2

Comme spécifié dans CoreCnt, si une liste de nœuds est spécifiée, le processeur peut être un tableau de cœurs
nombres par nœud : nodes=compute[1-3] TRES=cpu=2,2,1,bb/cray=4,license/iop1=2

Veuillez noter que le CPU, le nœud, la licence et le BB peuvent remplacer CoreCnt, NodeCnt et les licences
et BurstBuffer respectivement. CPU représente également CoreCnt, dans un
réservation et sera ajusté si vous avez des threads par cœur sur vos nœuds.

DONNÉES TECHNIQUES POUR LES CANADIENS MISE A JOUR BLOQUER/SOUS-MP

Systèmes Bluegene uniquement !

Nom du bloc=
Identifier le bloc BlueGene à mettre à jour. Cette spécification est obligatoire.

État=
Cela mettra à jour l'état d'un bloc bluegene. (c'est-à-dire mettre à jour BlockName=RMP0
(ÉTAT=ERREUR) ATTENTION!!!! À l'exception de l'état RESUME, tous les autres états
les valeurs annuleront tout travail en cours d'exécution sur le bloc !

LIVRAISON GRATUITE Remettre le bloc à l’état libre.

ERREUR Faites en sorte que les emplois ne soient pas disponibles sur le bloc.

RECRÉER Détruisez le bloc actuel et créez-en un nouveau pour prendre sa place.

ENLEVER Libérez et supprimez le bloc du système. Si le bloc est plus petit que
un plan médian, chaque bloc sur ce plan médian sera supprimé. (uniquement disponible
sur les systèmes dynamiques)

CV Si un bloc est dans l'état ERREUR, RESUME ramènera le bloc à son état précédent
état utilisable (LIBRE ou PRÊT).

SubMPName=
Identifier les ionodes Bluegene à mettre à jour (c.-à-d. bg000[0-3]). Cette spécification
est obligatoire. REMARQUE : même sur BGQ où les noms de nœuds sont donnés au format bg0000[00000]
cette option prend un nom d'ionode bg0000[0].

DONNÉES TECHNIQUES POUR LES CANADIENS MISE A JOUR COMMANDER, DISPOSITIFS

Mise En Page=
Identifier la mise en page à mettre à jour. Cette spécification est obligatoire.

Entité=
Identifier les entités à mettre à jour. Cette spécification est obligatoire.

ACTIVITES=
Clés/Valeurs à mettre à jour pour les entités. Le format doit respecter le layout.d.
fichiers de configuration. La clé = type ne peut pas être mise à jour. Au moins une clé/valeur est
requis, plusieurs peuvent être définis.

DONNÉES TECHNIQUES POUR LES CANADIENS SPECTACLES COMMANDER, DISPOSITIFS

Sans options, liste toutes les dispositions configurées. Avec une disposition spécifiée, affiche les entités.
avec les options suivantes :

ACTIVITES=
Clés/Valeurs à mettre à jour pour les entités. Le format doit respecter le layout.d.
Fichiers de configuration. La clé et le type ne peuvent pas être mis à jour. Une clé/valeur est requise, plusieurs
peut être mis en place.

Entité=
Entités à afficher ; la valeur par défaut n'est pas utilisée. Peut être définie sur « * ».

Type=
Type d'entités à afficher, par défaut non utilisé.

pas de mise en page
Si cette option n'est pas utilisée, seules les entités définissant l'arbre sont affichées. Avec cette option, seules
les feuilles sont montrées.

DESCRIPTION POUR LES CANADIENS SPECTACLES COMMANDER, NUDS

La signification des informations énergétiques est la suivante :

CourantWatts
La consommation d'énergie instantanée du nœud au moment de la dernière consommation d'énergie du nœud
échantillon comptable, en watts.

Joules les plus bas
L'énergie consommée par le nœud entre la dernière mise sous tension et la
la dernière fois, il a été enregistré par slurmd, en joules.

Joules consommés
L'énergie consommée par le nœud entre la dernière fois où il a été enregistré par le
Démon slurmd et le dernier échantillon de comptabilité énergétique du nœud, en joules.

Si la valeur signalée est « n/s » (non prise en charge), le nœud ne prend pas en charge la configuration
Type d'énergie de collecte d'accusé plugin. Si la valeur indiquée est zéro, la comptabilisation de l'énergie pour les nœuds est
désactivée.

La signification des informations des capteurs externes est la suivante :

Capteurs externes Joules
L'énergie consommée par le nœud entre la dernière mise sous tension et la
dernier exemple de nœud de plugin de capteurs externes, en joules.

Capteurs externes Watts
La consommation électrique instantanée du nœud au moment de la dernière intervention externe
Exemple de nœud de plugin de capteurs, en watts.

Capteurs de température externes
La température du nœud au moment du dernier plugin de capteurs externes
échantillon, en degrés Celsius.

Si la valeur signalée est « n/s » (non prise en charge), le nœud ne prend pas en charge la configuration
Type de capteurs externes plugin.

La signification des informations de spécialisation des ressources est la suivante :

Liste des spécifications du processeur
La liste des identifiants CPU abstraits Slurm sur ce nœud réservés à l'usage exclusif du
Démons de nœud de calcul Slurm (slurmd, slurmstepd).

Limite de spécification de mémoire
La limite de mémoire combinée, en mégaoctets, sur ce nœud pour le nœud de calcul Slurm
démons (slurmd, slurmstepd).

La signification des informations de mémoire est la suivante :

Mémoire réelle
La mémoire totale, en Mo, sur le nœud.

AllocMem
La mémoire totale, en Mo, actuellement allouée par les tâches sur le nœud.

FreeMem
La mémoire totale, en Mo, actuellement libre sur le nœud telle que rapportée par le système d'exploitation.

ENVIRONNEMENT VARIABLES


Certain contrôle les options peuvent être définies via des variables d'environnement. Ces variables d'environnement,
ainsi que leurs options correspondantes, sont répertoriés ci-dessous. (Remarque : les options de la ligne de commande
remplacez toujours ces paramètres.)

SCONTROL_ALL -une, --tout

SLURM_BITSTR_LEN Spécifie la longueur de chaîne à utiliser pour contenir la tâche d'un tableau de travaux
expression d'identification. La valeur par défaut est de 64 octets. Une valeur de 0 sera
imprimer l'expression complète avec n'importe quelle longueur requise. Des valeurs plus élevées peuvent
avoir un impact négatif sur les performances de l'application.

SLURM_CLUSTERS Pareil que --groupes

SLURM_CONF L'emplacement du fichier de configuration Slurm.

SLURM_TIME_FORMAT Spécifiez le format utilisé pour signaler les horodatages. Une valeur de Standard,
la valeur par défaut, génère une sortie sous la forme
"année-mois-dateTheure:minute:seconde". Une valeur de relatif Retours
uniquement "heure:minute:seconde" si le jour actuel. Pour les autres dates du
l'année en cours il imprime l'"heure:minute" précédé de "Tomorr"
(demain), "Ystday" (hier), le nom du jour pour le prochain
semaine (par exemple "Lun", "Mar", etc.), sinon la date (par exemple "25 Avr").
Pour les autres années, il renvoie un mois et une année de date sans heure (par exemple
"6 juin 2012"). Tous les horodatages utilisent un format de 24 heures.

Un format strftime() valide peut également être spécifié. Par exemple, une valeur
de "%a %T" rapportera le jour de la semaine et un horodatage (par exemple "Lun
12:34:56").

SLURM_TOPO_LEN Spécifiez la taille maximale de la ligne lors de l'impression de la topologie. Sinon
défini, la valeur par défaut « 512 » sera utilisée.

AUTORISATION


Lors de l'utilisation de la base de données Slurm, les utilisateurs pour lesquels AdminLevel est défini (opérateur ou administrateur) et les utilisateurs
qui sont des coordinateurs de compte ont le pouvoir de visualiser et de modifier les tâches,
réservations, nœuds, etc., tels que définis dans le tableau suivant - indépendamment du fait qu'un
La restriction PrivateData a été définie dans le fichier slurm.conf.

contrôle montrer emploi(s) : Administrateur, Opérateur, Coordinateur
contrôle Mise à jour emploi: Administrateur, Opérateur, Coordinateur
contrôle remettre en file d'attente : Administrateur, Opérateur, Coordinateur
contrôle montrer mesures): Administrateur, Opérateur, Coordinateur
contrôle Mise à jour étape: Administrateur, Opérateur, Coordinateur

contrôle montrer bloquer: Administrateur, Opérateur
contrôle Mise à jour bloquer: Administrateur

contrôle montrer nœud: Administrateur, Opérateur
contrôle Mise à jour nœud: Administrateur

contrôle créer des cloison: Administrateur
contrôle montrer cloison: Administrateur, Opérateur
contrôle Mise à jour cloison: Administrateur
contrôle delete cloison: Administrateur

contrôle créer des réservation: Administrateur, Opérateur
contrôle montrer réservation: Administrateur, Opérateur
contrôle Mise à jour réservation: Administrateur, Opérateur
contrôle delete réservation: Administrateur, Opérateur

contrôle reconfigurer: Administrateur
contrôle fermer: Administrateur
contrôle reprendre: Administrateur

EXEMPLES


# scontrol
scontrol : afficher le débogage de la partie
PartitionName=debug
AllocNodes=ALL AllowGroups=ALL Par défaut=OUI
DefaultTime=NONE DisableRootJobs=NON Masqué=NON
MaxNodes=ILLIMITÉ MaxTime=ILLIMITÉ MinNodes=1
Nœuds=flocon de neige[0-48]
Priorité=1 RootOnly=NON Partagé=OUI:4
État = UP TotalCPUs = 694 TotalNodes = 49
scontrol : mise à jour PartitionName=debug MaxTime=60:00 MaxNodes=4
scontrol : afficher le travail 71701
JobId=71701 Nom=nom d'hôte
Identifiant utilisateur =da(1000) GroupId=da(1000)
Priorité=66264 Compte=aucun QOS=normal WCKey=*123
JobState=TERMINÉ Raison=Aucune Dépendance=(null)
TimeLimit=ILLIMITÉ Requeue=1 Redémarrages=0 BatchFlag=0 ExitCode=0:0
SubmitTime=2010-01-05T10:58:40 EligibleTime=2010-01-05T10:58:40
StartTime=2010-01-05T10:58:40 EndTime=2010-01-05T10:58:40
SuspendTime=Aucun SecsPreSuspend=0
Partition=debug AllocNode:Sid=snowflake:4702
ReqNodeList=(null) ExcNodeList=(null)
NodeList=snowflake0
NumNodes=1 NumCPUs=10 CPUs/Tâche=2 ReqS:C:T=1:1:1
MinCPUsNode=2 MinMemoryNode=0 MinTmpDiskNode=0
Caractéristiques=(null) Réservation=(null)
Partagé=OK Contigu=0 Licences=(null) Réseau=(null)
scontrol : mise à jour JobId=71701 TimeLimit=30:00 Priorité=500
scontrol : afficher les noms d'hôtes tux[1-3]
smoking1
smoking2
smoking3
scontrol : créer une ressource StartTime=2009-04-01T08:00:00 Duration=5:00:00 Users=dbremer
NodeCnt=10
Réservation créée : dbremer_1
scontrol : mise à jour de la réservation = dbremer_1 Flags = Maint NodeCnt = 20
scontrol : supprimer la réservation = dbremer_1
scontrol : quitter

COPIER


Copyright (C) 2002-2007 Les régents de l'Université de Californie. Produit à Lawrence
Laboratoire national de Livermore (cf. AVIS DE NON-RESPONSABILITÉ).
Copyright (C) 2008-2010 Lawrence Livermore Sécurité nationale.
Copyright (C) 2010-2015 SchedMD LLC.

Ce fichier fait partie de Slurm, un programme de gestion des ressources. Pour plus de détails, voir
<http://slurm.schedmd.com/>.

Slurm est un logiciel libre ; vous pouvez le redistribuer et/ou le modifier selon les termes des
Licence publique générale GNU telle que publiée par la Free Software Foundation ; soit la version 2
de la Licence, ou (à votre choix) toute version ultérieure.

Slurm est distribué dans l'espoir qu'il sera utile, mais SANS AUCUNE GARANTIE ; sans pour autant
même la garantie implicite de QUALITÉ MARCHANDE ou D'ADAPTATION À UN USAGE PARTICULIER. Voir le
Licence publique générale GNU pour plus de détails.

Utilisez scontrol en ligne à l'aide des services onworks.net


Serveurs et postes de travail gratuits

Télécharger des applications Windows et Linux

Commandes Linux

Ad




×
Publicité
❤ ️Achetez, réservez ou achetez ici — gratuitement, contribue à maintenir la gratuité des services.