Liste des conteneurs
Tous les conteneurs se trouvent dans le répertoire /work/conteneurs
.
Pour consulter en détail la liste des paquets installés dans un conteneur, utilisez la commande suivante :
apptainer exec /work/conteneurs/path_to/continer_name.sif pip list
Nom | Packages principaux | Chemin |
---|---|---|
PyTorch | - torch (PyTorch – framework principal pour l’apprentissage profond) - torchvision (vision par ordinateur pour PyTorch) - torch-geometric (réseaux de neurones pour graphes) - flash_attn (mécanismes d’attention optimisés) - nvfuser (compilateur de fusion de NVIDIA pour PyTorch) - cuda-python (accès direct à l’API CUDA) | sessions-interactives/pytorch-25.03-py3-calmip-si-latest.sif |
TensorFlow | - tensorflow (framework principal pour l’apprentissage profond) - keras (API haut niveau pour TensorFlow) - tensorrt (optimiseur d’inférence NVIDIA) - horovod (entraînement distribué) - jax (calcul numérique accéléré) - tensorflow-io-gcs-filesystem (prise en charge du stockage Google Cloud) | sessions-interactives/tensorflow-24.02-tf2-py3-calmip-si-latest.sif |
Scikit-learn | - cudf (bibliothèque de DataFrames sur GPU) - cuml (apprentissage automatique accéléré sur GPU) - cugraph (analyse de graphes sur GPU) - cupy (tableaux de type NumPy sur GPU) - dask-cuda (calcul distribué GPU avec Dask) - xgboost (boosting de gradient accéléré GPU) | sessions-interactives/rapids-notebooks-24.02-cuda12.0-py3.10-calmip-si-latest.sif |
Modulus | - nvidia-modulus (framework principal pour la physique basée sur l’IA) - nvidia-modulus.sym (extensions symboliques pour Modulus) - onnxruntime-gpu (inférence ONNX sur GPU) - tinycudann (réseaux de neurones rapides sur CUDA) - torch (backend PyTorch pour Modulus) - sympy (mathématiques symboliques) | sessions-interactives/modulus-24.01-calmip-si-latest.sif |
Triton | - Basé sur le conteneur PyTorch (tous les packages PyTorch sont inclus) - Triton (compilateur de noyaux GPU pour l’IA/l’apprentissage automatique) - Triton utilise LLVM pour générer du code PTX pour les GPU NVIDIA | sessions-interactives/triton-llvm-3.3.0-calmip-si-latest.sif |
cuquantum_arrayfire | - Basé sur le conteneur PyTorch (tous les packages PyTorch sont inclus) - cuquantum-python (cuQuantum de NVIDIA) - arrayfire (backend GPU/CPU, GPU par défaut sur les nœuds de calcul) - pytest (framework de test Python) - pytest-benchmark (mesures de performance) - mpi4py (interface MPI pour Python) - petsc (bibliothèque scientifique pour solveurs) - petsc4py (liaison Python pour PETSc) - slepc (bibliothèque pour problèmes de valeurs propres) - primme (solveur PRIMME) - slepc4py (liaison Python pour SLEPc) - cupy (NumPy sur GPU) | calmip/custom_users/cuquantum_arrayfire.sif |