Outils pour utilisateurs

Outils du site


varenv

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
varenv [2017/08/28 07:48] toussainvarenv [2018/10/11 20:49] (Version actuelle) – modification externe 127.0.0.1
Ligne 1: Ligne 1:
 ====== Variables d'environnement SLURM ====== ====== Variables d'environnement SLURM ======
  
-On donne ici seulement quelques unes des variables d'environnement qui sont disponibles dans SLURM. Pour une liste exhaustive voir [[https://slurm.schedmd.com/sbatch.html#lbAG|ici]].+On donne ici seulement quelques unes des variables d'environnement qui sont disponibles dans SLURM. Pour une liste exhaustive voir [[https://slurm.schedmd.com/sbatch.html#lbAG|https://slurm.schedmd.com/sbatch.html#lbAG]]. 
 + 
 + 
 +===== Information sur le job ===== 
 +  * **SLURM_JOB_ID** : numéro du job 
 + 
 +  * **SLURM_JOB_NAME** : nom du job 
 + 
 +  * **SLURM_JOB_NUM_NODES** : nombre total de nœuds alloués pour le job  
 + 
 +  * **SLURM_SUBMIT_DIR** : répertoire à partir duquel le job est soumis 
 + 
 +  * **SLURMD_NODENAME** : nom du nœud sur lequel le job s'exécute 
 + 
 +  * **SLURM_JOB_PARTITION** : nom de la partition sur laquelle le job s'exécute
  
 ===== Information sur les tableaux de jobs  ===== ===== Information sur les tableaux de jobs  =====
Ligne 19: Ligne 33:
   * **SLURM_ARRAY_TASK_MIN** : indice min du tableau de jobs   * **SLURM_ARRAY_TASK_MIN** : indice min du tableau de jobs
  
 +===== Exemples d'utilisation =====
  
 +<code bash>
  
 +#!/bin/bash
  
-===== Information sur l'environnement matériel =====+#SBATCH --job-name=test1 
 +#SBATCH --time=5:00 
 +#SBATCH --partition=court
  
-  * **SLURM_CLUSTER_NAME** : nom du cluster sur lequel le job s'exécute+echo mon job $SLURM_JOB_NAME, num $SLURM_JOB_ID, 
 +echo "s'execute" dans la partition $SLURM_JOB_PARTITION sur le noeud $SLURMD_NODENAME
  
-  * **SLURM_CPUS_ON_NODE** : nombre de CPU (=coeurs logiques) sur le noeud alloué +./exe 10 
-  +</code>
- * **SLURM_GTIDS** : numéro des tâches en cours d'exécution sur le noeud alloué +
- +
-===== Information sur le job ===== +
- +
- +
- +
-  * **SLURM_JOB_ID** : numéro du job +
- +
-    * **SLURM_JOB_NAME** : nom du job +
- +
- +
-  * **SLURM_JOB_NUM_NODES** : nombre total de noeuds alloués pour le job +
  
  
 +<code bash>
 +#!/bin/bash
  
 +#SBATCH --time=1:00
 +#SBATCH --array=0-9
 + 
 +echo tableau de jobs numero $SLURM_ARRAY_JOB_ID, indices de $SLURM_ARRAY_TASK_MIN a $SLURM_ARRAY_TASK_MAX
  
-  * **SLURM_PRIO_PROCESS** : priorité du job au moment où il est soumis+#les jobs dont les indices vont de 0 à 4 exécutent le programme 1 
 +if [ $SLURM_ARRAY_TASK_ID -le 4 ] 
 +then 
 +    echo "premier programme" 
 +    ./exe 1  
 +else  #les autres exécutent le programme 2 
 +    echo "second programme" 
 +    ./exe 10 
 +fi 
 +</code>
  
-SLURM_PRIO_PROCESS 
-    The scheduling priority (nice value) at the time of job submission. This value is propagated to the spawned processes.  
-SLURM_PROCID 
-    The MPI rank (or relative process ID) of the current process  
-SLURM_PROFILE 
-    Same as --profile  
-SLURM_RESTART_COUNT 
-    If the job has been restarted due to system failure or has been explicitly requeued, this will be sent to the number of times the job has been restarted.  
-SLURM_SUBMIT_DIR 
-    The directory from which sbatch was invoked.  
-SLURM_SUBMIT_HOST 
-    The hostname of the computer from which sbatch was invoked.  
-SLURM_TASKS_PER_NODE 
-    Number of tasks to be initiated on each node. Values are comma separated and in the same order as SLURM_NODELIST. If two or more consecutive nodes are to have the same task count, that count is followed by "(x#)" where "#" is the repetition count. For example, "SLURM_TASKS_PER_NODE=2(x3),1" indicates that the first three nodes will each execute three tasks and the fourth node will execute one task.  
-SLURM_TASK_PID 
-    The process ID of the task being started.  
-SLURM_TOPOLOGY_ADDR 
-    This is set only if the system has the topology/tree plugin configured. The value will be set to the names network switches which may be involved in the job's communications from the system's top level switch down to the leaf switch and ending with node name. A period is used to separate each hardware component name.  
-SLURM_TOPOLOGY_ADDR_PATTERN 
-    This is set only if the system has the topology/tree plugin configured. The value will be set component types listed in SLURM_TOPOLOGY_ADDR. Each component will be identified as either "switch" or "node". A period is used to separate each hardware component type.  
-SLURMD_NODENAME 
-    Name of the node running the job script.  
varenv.1503906510.txt.gz · Dernière modification : 2018/10/11 20:49 (modification externe)