NVIDIA A100 80GB pour l'IA locale
Le NVIDIA A100 80GB est un GPU data center (80 GB de VRAM) destiné aux serveurs et infrastructures cloud. Sur les 242 modèles open source de notre catalogue, 224 tournent confortablement dessus en mono-carte.
Modèles qui tournent confortablement
224 modèles · trié VRAM ↓Ces modèles tiennent dans 80GB avec marge pour le contexte long et l'inférence stable. Triés du plus gros au plus petit.
+ 194 autres — voir le calculateur complet →
Modèles serrés (possibles mais lents)
3 modèles tendusCes modèles tiennent tout juste. Tournent mais le contexte disponible est limité, et l'inférence peut être lente si on dépasse la VRAM (offload CPU).
Débloqués en rig 2×
160 GB totalAvec 2 cartes en parallèle (160 GB total), vous accédez à des modèles plus gros et à des quantizations plus hautes.
Débloqués en rig 4×
320 GB totalConfiguration entreprise / serveur (320 GB total) : vous accédez aux flagships open source 70B+ et aux MoE moyens.
GPUs similaires
// données mises à jour le 2026-05-12 via HuggingFace API.
// estimations VRAM : (params × bits/8) × overhead 20 %.