Performance : vérifier CUDA côté système
Performance : vérifier CUDA côté système
Objectif
À la fin, vous aurez reproduit cette étape de bout en bout sur un cas test.
Avant de commencer
- Machine compatible avec la procédure.
- Droits administrateur si installation système.
- Un cas test pour valider avant production.
Pas à pas
- Vérifier pilote GPU visible (
nvidia-smi). - Vérifier compilateur CUDA (
nvcc --version). - Vérifier runtime CUDA côté Python.
- Tester une opération GPU simple.
- Archiver la sortie des commandes dans
logs/gpu_check.txt.
À copier-coller
# 1) Pilote et carte
nvidia-smi
# 2) Toolkit CUDA
nvcc --version
# 3) Vérification Python (PyTorch)
python - <<'PY'
import torch
print('torch:', torch.__version__)
print('cuda available:', torch.cuda.is_available())
print('device count:', torch.cuda.device_count())
if torch.cuda.is_available():
print('device 0:', torch.cuda.get_device_name(0))
PY
Vérifier que ça marche
- Les commandes de contrôle répondent correctement.
- Le gain (ou la stabilité) est mesuré sur cas test.
- Les versions logicielles sont tracées.
En cas de problème
- Vérifier compatibilité driver/toolkit.
- Tester les commandes de diagnostic système.