Outils pour utilisateurs

Outils du site


machines

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
machines [2021/04/23 13:57] hetoussamachines [2021/07/02 12:55] (Version actuelle) hetoussa
Ligne 1: Ligne 1:
  
-====== Listes des machines et monitoring ======+====== Listes des serveurs de calcul ======
  
-===== Politique d'utilisation des machines =====+===== Politique d'utilisation des serveurs =====
  
   * Les machines de calcul sont dédiées à la recherche   * Les machines de calcul sont dédiées à la recherche
  
   * Les étudiants de l'ISIMA ou de master peuvent accéder aux machines dans le cadre d'un projet de recherche et sur demande de l'encadrant   * Les étudiants de l'ISIMA ou de master peuvent accéder aux machines dans le cadre d'un projet de recherche et sur demande de l'encadrant
- 
-  * La liste des utilisateurs des machines correspond aux abonnées de la liste de diffusion calculs@isima.fr ([[http://listes.isima.fr/sympa/review/calculs|voir les abonnés]]) 
  
   * [[:pratique|Voir les bonnes pratiques]]   * [[:pratique|Voir les bonnes pratiques]]
  
-===== Liste des machines (linuxen accès direct (ssh)=====+\\ 
 +===== Serveurs linux ===== 
 + 
 +==== Liste des serveurs linux en accès direct (ssh)====
  
 Les machines en accès direct peuvent être utilisées directement (connexion ssh sur la machine, pas de gestionnaire de ressources) pour du calcul ou pour lancer des applications graphiques. Les machines en accès direct peuvent être utilisées directement (connexion ssh sur la machine, pas de gestionnaire de ressources) pour du calcul ou pour lancer des applications graphiques.
Ligne 18: Ligne 19:
 Dans les tableaux suivants le nombre de** coeurs physiques = nb sockets * nb coeurs par socket** Dans les tableaux suivants le nombre de** coeurs physiques = nb sockets * nb coeurs par socket**
 ^ ^coeurs physiques^hyperthreading^proc^RAM| ^ ^coeurs physiques^hyperthreading^proc^RAM|
-|christmas (192.168.186.1)| 2 * 32 = 64|oui|AMD EPYC 7452 32-Core Processor|515 Go |+|christmas (192.168.186.1)| 2 * 32 = 64|oui|AMD EPYC 7452 32-Core Processor|512 Go |
  
-/* + 
-^noeuds^coeurs physiques^GPU^hyperthreading^proc^cache^RAM|+^ ^coeurs physiques^GPU^hyperthreading^proc^cache^RAM|
 |opale| 1 * 10 = 10|1 carte NVIDIA GP104GL [Quadro P5000]|non|Intel(R) Xeon(R) CPU E5-2640 v4 @ 2.40GHz|25Mo|62.5 Go | |opale| 1 * 10 = 10|1 carte NVIDIA GP104GL [Quadro P5000]|non|Intel(R) Xeon(R) CPU E5-2640 v4 @ 2.40GHz|25Mo|62.5 Go |
 |amethyste| 2 * 10 = 20|2 cartes AMD Tonga PRO GL [FirePro W7100] |non| Intel(R) Xeon(R) CPU E5-2630 v4 @ 2.20GHz|25Mo|62.5 Go | |amethyste| 2 * 10 = 20|2 cartes AMD Tonga PRO GL [FirePro W7100] |non| Intel(R) Xeon(R) CPU E5-2630 v4 @ 2.20GHz|25Mo|62.5 Go |
-*/ 
  
  
  
-===== Liste des machines (nœud de calcul) dans le cluster SLURM (frontalhpc) =====+\\ 
 +==== Liste des noeuds dans le cluster SLURM ====
  
 Pour utiliser le cluster l'utilisateur se connecte (en ssh) sur **frontalhpc2020 ** (192.168.186.100) et soumet ses jobs via SLURM. Il n'est pas possible de se connecter directement sur les noeuds de calcul. Pour utiliser le cluster l'utilisateur se connecte (en ssh) sur **frontalhpc2020 ** (192.168.186.100) et soumet ses jobs via SLURM. Il n'est pas possible de se connecter directement sur les noeuds de calcul.
  
-==== Liste des noeuds ==== 
  
 +=== Liste des noeuds ===
  
 ^noeuds^coeurs physiques^hyperthreading^proc^cache^RAM| ^noeuds^coeurs physiques^hyperthreading^proc^cache^RAM|
-|node34 à node39  |2 * 32 = 64|non| AMD EPYC 7452 32-Core Processor |256 Mo|500 Go|+|node34 à node39  |2 * 32 = 64|non| AMD EPYC 7452 32-Core Processor |256 Mo|512 Go| 
 +|node40  |2 * 32 = 64|oui (128 coeurs logiques)| AMD EPYC 7452 32-Core Processor |256 Mo|512 Go| 
 +|obelix  |2 * 64 = 128|non| AMD EPYC 7H12 64-Core Processor |256 Mo|1 To| 
 +|kephren|4 * 18 = 72|non|Intel(R) Xeon(R) CPU E7-8890 v3 @ 2.50 GHz|46 Mo|3To| 
 +|django|2 * 10 = 20|non|Intel(R) Xeon(R) CPU E5-2687W v3 @ 3.10GHz|25 Mo|770 Go| 
 +|bob|2 * 12 = 24|non|Intel(R) Xeon(R) CPU E5-2687W v4 @ 3.00 GHz|30 Mo|768 Go| 
 +|node26 à node29  |2 * 8 = 16|non|Intel(R) Xeon(R) CPU E5-2670 0 @ 2.60 GHz|20 Mo|62.5Go| 
 +|node30 à node33|2 * 10 = 20|non|Intel(R) Xeon(R) CPU E5-2670 v2 @ 2.50 GHz|25 Mo|62.5 Go|
  
 /* /*
Ligne 43: Ligne 51:
 |node30 à node33|2 * 10 = 20|20|non|Intel(R) Xeon(R) CPU E5-2670 v2 @ 2.50 GHz|25 Mo|62.5 Go| |node30 à node33|2 * 10 = 20|20|non|Intel(R) Xeon(R) CPU E5-2670 v2 @ 2.50 GHz|25 Mo|62.5 Go|
 |molene168|2 * 8 = 16|16|non|Intel(R) Xeon(R) CPU E5-2670 0 @ 2.60 GHz|20 Mo|31 Go| |molene168|2 * 8 = 16|16|non|Intel(R) Xeon(R) CPU E5-2670 0 @ 2.60 GHz|20 Mo|31 Go|
-|kephren|4 * 18 = 72|72|non|Intel(R) Xeon(R) CPU E7-8890 v3 @ 2.50 GHz|46 Mo|3To| +
-|django|2 * 10 = 20|20|non|Intel(R) Xeon(R) CPU E5-2687W v3 @ 3.10GHz|25 Mo|770 Go| +
-|bob|2 * 12 = 24|24|non|Intel(R) Xeon(R) CPU E5-2687W v4 @ 3.00 GHz|30 Mo|768 Go|+
 */ */
  
Ligne 55: Ligne 61:
  
  
 +\\
  
-==== serveur windows ====+==== Disques locaux sur les serveurs linux ==== 
 + 
 +Les noeuds node34 à node39, ainsi que christmas, disposent de deux disques SSD NMVe de 3 To mappés dans les répertoires /read (1er disque) et /write (2sd disque). Si vous avez un programme qui fait beaucoup de lectures / écritures sur disque il peut être intéressant de les utiliser. N'oubliez pas de supprimer vos fichiers des disques locaux quand vous n'en avez plus besoin. 
 + 
 +\\ 
 + 
 + 
 +===== Serveur windows =====
 ^serveur^coeurs physiques^coeurs logiques^hyperthreading^proc^cache^RAM| ^serveur^coeurs physiques^coeurs logiques^hyperthreading^proc^cache^RAM|
 |iroise|2 * 8 = 16|16|non|Intel(R) Xeon(R) CPU E5-2630 v3 @ 2.40GHz|20 Mo|64 Go| |iroise|2 * 8 = 16|16|non|Intel(R) Xeon(R) CPU E5-2630 v3 @ 2.40GHz|20 Mo|64 Go|
 +
 +
 +===== Remarques =====
  
  
machines.1619186232.txt.gz · Dernière modification : 2021/04/23 13:57 de hetoussa