varenv
Différences
Ci-dessous, les différences entre deux révisions de la page.
Les deux révisions précédentesRévision précédenteProchaine révision | Révision précédente | ||
varenv [2017/08/28 09:48] – toussain | varenv [2018/10/11 22:49] (Version actuelle) – modification externe 127.0.0.1 | ||
---|---|---|---|
Ligne 1: | Ligne 1: | ||
====== Variables d' | ====== Variables d' | ||
- | On donne ici seulement quelques unes des variables d' | + | On donne ici seulement quelques unes des variables d' |
+ | |||
+ | |||
+ | ===== Information sur le job ===== | ||
+ | * **SLURM_JOB_ID** : numéro du job | ||
+ | |||
+ | * **SLURM_JOB_NAME** : nom du job | ||
+ | |||
+ | * **SLURM_JOB_NUM_NODES** : nombre total de nœuds alloués pour le job | ||
+ | |||
+ | * **SLURM_SUBMIT_DIR** : répertoire à partir duquel le job est soumis | ||
+ | |||
+ | * **SLURMD_NODENAME** : nom du nœud sur lequel le job s' | ||
+ | |||
+ | * **SLURM_JOB_PARTITION** : nom de la partition sur laquelle le job s' | ||
===== Information sur les tableaux de jobs ===== | ===== Information sur les tableaux de jobs ===== | ||
Ligne 19: | Ligne 33: | ||
* **SLURM_ARRAY_TASK_MIN** : indice min du tableau de jobs | * **SLURM_ARRAY_TASK_MIN** : indice min du tableau de jobs | ||
+ | ===== Exemples d' | ||
+ | <code bash> | ||
+ | #!/bin/bash | ||
- | ===== Information sur l' | + | #SBATCH --job-name=test1 |
+ | #SBATCH --time=5:00 | ||
+ | #SBATCH --partition=court | ||
- | * **SLURM_CLUSTER_NAME** : nom du cluster sur lequel le job s'exécute | + | echo mon job $SLURM_JOB_NAME, |
+ | echo "s'execute" | ||
- | * **SLURM_CPUS_ON_NODE** : nombre de CPU (=coeurs logiques) sur le noeud alloué | + | ./exe 10 |
- | + | </ | |
- | * **SLURM_GTIDS** : numéro des tâches en cours d' | + | |
- | + | ||
- | ===== Information sur le job ===== | + | |
- | + | ||
- | + | ||
- | + | ||
- | * **SLURM_JOB_ID** : numéro du job | + | |
- | + | ||
- | * **SLURM_JOB_NAME** : nom du job | + | |
- | + | ||
- | + | ||
- | * **SLURM_JOB_NUM_NODES** : nombre total de noeuds alloués pour le job | + | |
+ | <code bash> | ||
+ | #!/bin/bash | ||
+ | #SBATCH --time=1:00 | ||
+ | #SBATCH --array=0-9 | ||
+ | |||
+ | echo tableau de jobs numero $SLURM_ARRAY_JOB_ID, | ||
- | * **SLURM_PRIO_PROCESS** : priorité du job au moment où il est soumis | + | #les jobs dont les indices vont de 0 à 4 exécutent le programme 1 |
+ | if [ $SLURM_ARRAY_TASK_ID -le 4 ] | ||
+ | then | ||
+ | echo " | ||
+ | ./exe 1 | ||
+ | else #les autres exécutent le programme 2 | ||
+ | echo " | ||
+ | ./exe 10 | ||
+ | fi | ||
+ | </ | ||
- | SLURM_PRIO_PROCESS | ||
- | The scheduling priority (nice value) at the time of job submission. This value is propagated to the spawned processes. | ||
- | SLURM_PROCID | ||
- | The MPI rank (or relative process ID) of the current process | ||
- | SLURM_PROFILE | ||
- | Same as --profile | ||
- | SLURM_RESTART_COUNT | ||
- | If the job has been restarted due to system failure or has been explicitly requeued, this will be sent to the number of times the job has been restarted. | ||
- | SLURM_SUBMIT_DIR | ||
- | The directory from which sbatch was invoked. | ||
- | SLURM_SUBMIT_HOST | ||
- | The hostname of the computer from which sbatch was invoked. | ||
- | SLURM_TASKS_PER_NODE | ||
- | Number of tasks to be initiated on each node. Values are comma separated and in the same order as SLURM_NODELIST. If two or more consecutive nodes are to have the same task count, that count is followed by " | ||
- | SLURM_TASK_PID | ||
- | The process ID of the task being started. | ||
- | SLURM_TOPOLOGY_ADDR | ||
- | This is set only if the system has the topology/ | ||
- | SLURM_TOPOLOGY_ADDR_PATTERN | ||
- | This is set only if the system has the topology/ | ||
- | SLURMD_NODENAME | ||
- | Name of the node running the job script. |
varenv.1503906510.txt.gz · Dernière modification : 2018/10/11 22:49 (modification externe)