Les règles d’accounting en vigueur sur Turpan
Pour rappel Turpan est un Cluster qui interconnecte des nœuds de calcul. Chaque nœud de Turpan dispose de 80 cœurs et 2 cartes accélératrices GPU.
Accounting par type de partition
Plusieurs cas de figure se présentent en fonction de la partition utilisée :
- Partitions small big et full
- Partition shared et visu
Pour une réservation sur ces partitions, les nœuds sont attribués dans leur intégralité (i.e les 80 cœurs de chaque nœud et les 2 cartes GPU sont réservés). Tout nœud réservé est comptabilisé de la manière suivante :
(nombre de nœuds réservés) * (80 cœurs) * (temps de réservation effectivement utilisé)
Pour une réservation sur les partition shared ou visu, le nœud est partagé entre plusieurs utilisateurs. Tout nœud réservé est comptabilisé de la manière suivante :
(nombre de cœurs réservés) * (temps de réservation effectivement utilisé)
Bien que leur consommation soit affichée, la consommation des cartes GPU n'est pas prise en compte dans la comptabilisation.
Exemples :
- Partitions small big et full
- Partitions small big et full (dépleuplé)
- Partitions shared et visu
- Je lance un job sur 1 nœuds, en lançant 80 tâches par nœud.
- Mon job met 0.049h(2.9m) à tourner.
- L’en-tête de mon script SLURM ressemblera à quelque chose comme :
#SBATCH -N 1
#SBATCH -n 80
#SBATCH -p small
#SBATCH --ntasks-per-node=80
#SBATCH --ntasks-per-core=1
#SBATCH --time=04:00:00
Il me sera décompté (1 nœuds) * (80 cpus) * (0.049 h) = 3.92 h_cpus. Pour rappel : 80 cœurs de calculs par noeud de Turpan.
- Je lance un job sur 1 nœuds en dépeuplé, en lançant 40 tâches par nœud.
- Mon job met 0.049h(2.9m) à tourner.
- L’en-tête de mon script SLURM ressemblera à quelque chose comme :
#SBATCH -N 1
#SBATCH -n 40
#SBATCH -p small
#SBATCH --ntasks-per-node=40
#SBATCH --ntasks-per-core=1
#SBATCH --time=04:00:00
Il me sera décompté (1 nœuds) * (80 cpus) * (0.049 h) = 3.92 h_cpus. Pour rappel : 80 cœurs de calculs par noeud de Turpan. Le même nombre d'heures, même avec moins de tâches, car tout le nœud sera réservé, même s'il n'est pas utilisé entièrement.
- Je lance un job utilisant 40 tâches.
- Mon job met 0.049h(2.9m) à tourner.
- L’en-tête de mon script SLURM ressemblera à quelque chose comme :
#SBATCH -N 1
#SBATCH -n 40
#SBATCH -p shared
#SBATCH --ntasks-per-node=40
#SBATCH --ntasks-per-core=1
#SBATCH --gres=gpu:1
#SBATCH --mem=20000
#SBATCH --time=04:00:00
Il me sera décompté (40 cpus) * (0.049h) = 1.96 h_cpus. Le nœud est partagé entre différents jobs, et seuls 40 cœurs sont réservé et utilisés (le nœud complet n'est pas réservé).
Et si mon quota est épuisé ?
Un job n’est comptabilisé que lorsqu’il est terminé. En cas de dépassement de quota :
- Aucun job ne peut plus être soumis au gestionnaire de batch
- Les jobs en attente sont supprimés
- Les jobs en cours continuent leur exécution.
- Je peux encore accéder à mes espaces de fichier pendant encore 1 an
- Mon responsable de projet peut demander une extension en allant dans l'application GRAMC (https://acces.mesonet.fr)