NVIDIAdata centerAmpere DC

NVIDIA A100 40GB pour l'IA locale

Le NVIDIA A100 40GB est un GPU haut de gamme (40 GB de VRAM) destiné aux serveurs et infrastructures cloud. Sur les 242 modèles open source de notre catalogue, 208 tournent confortablement dessus en mono-carte.

VRAM
40GB
Catégorie
Datacenter
Série
Ampere DC
Vendor
NVIDIA

Modèles qui tournent confortablement

Ces modèles tiennent dans 40GB avec marge pour le contexte long et l'inférence stable. Triés du plus gros au plus petit.

Mixtral 8x7Bmistral · MoE29.5 GBcompatibleQ4 · / 40 GB
Falcon 40Bfalcon30.7 GBcompatibleQ5 · / 40 GB
Command R 35Bcommand26.9 GBcompatibleQ5 · / 40 GB
Aya 23 35Baya26.9 GBcompatibleQ5 · / 40 GB
CodeLlama 34Bcodellama26.1 GBcompatibleQ5 · / 40 GB
Yi 1.5 34Byi26.1 GBcompatibleQ5 · / 40 GB
dolphin 2.9.1 yi 1.5 34byi26.1 GBcompatibleQ5 · / 40 GB
Qwen 2.5 32Bqwen24.6 GBcompatibleQ5 · / 40 GB
Qwen 2.5 Coder 32Bqwen24.6 GBcompatibleQ5 · / 40 GB
Qwen 3 32Bqwen24.6 GBcompatibleQ5 · / 40 GB
QwQ 32Bqwq24.6 GBcompatibleQ5 · / 40 GB
DeepSeek R1 Distill 32Bdeepseek24.6 GBcompatibleQ5 · / 40 GB
Qwen 2.5 VL 32Bqwen24.6 GBcompatibleQ5 · / 40 GB
Granite 4 H-Small 32B-A9Bgranite · MoE24.6 GBcompatibleQ5 · / 40 GB
GLM-4.6glm24.6 GBcompatibleQ5 · / 40 GB
GLM-4.7glm24.6 GBcompatibleQ5 · / 40 GB
GLM-5glm24.6 GBcompatibleQ5 · / 40 GB
GLM-5.1glm24.6 GBcompatibleQ5 · / 40 GB
Qwen3 32Bqwen24.6 GBcompatibleQ5 · / 40 GB
Qwen2.5 Coder 32B Instructqwen24.6 GBcompatibleQ5 · / 40 GB
DeepSeek R1 Distill Qwen 32Bqwen24.6 GBcompatibleQ5 · / 40 GB
Qwen2.5 32B Instructqwen24.6 GBcompatibleQ5 · / 40 GB
Gemma 4 31Bgemma23.8 GBcompatibleQ5 · / 40 GB
Qwen 3 30B A3Bqwen · MoE33.5 GBcompatibleQ8 · / 40 GB
MPT 30Bmpt33.5 GBcompatibleQ8 · / 40 GB
Qwen3 Coder 30B A3B Instructqwen33.5 GBcompatibleQ8 · / 40 GB
Qwen3 30B A3Bqwen33.5 GBcompatibleQ8 · / 40 GB
Qwen3 30B A3B Instruct 2507qwen33.5 GBcompatibleQ8 · / 40 GB
NVIDIA Nemotron 3 Nano 30B A3B BF16nemotron33.5 GBcompatibleQ8 · / 40 GB
Gemma 2 27Bgemma30.2 GBcompatibleQ8 · / 40 GB

+ 178 autres — voir le calculateur complet →

Débloqués en rig 2×

Avec 2 cartes en parallèle (80 GB total), vous accédez à des modèles plus gros et à des quantizations plus hautes.

Mistral Large 123Bmistral77.3 GBserréQ4 · / 80 GB
Llama 4 Scout 17Bx16llama · MoE68.5 GBserréQ4 · / 80 GB
Command R+ 104Bcommand65.4 GBcompatibleQ4 · / 80 GB
Qwen3 Next 80B A3B Instructqwen61.5 GBcompatibleQ5 · / 80 GB
Qwen 2.5 72Bqwen55.3 GBcompatibleQ5 · / 80 GB
Qwen 2.5 VL 72Bqwen55.3 GBcompatibleQ5 · / 80 GB
Qwen2.5 72B Instructqwen55.3 GBcompatibleQ5 · / 80 GB
Llama 2 70Bllama53.8 GBcompatibleQ5 · / 80 GB
Llama 3 70Bllama53.8 GBcompatibleQ5 · / 80 GB
Llama 3.1 70Bllama53.8 GBcompatibleQ5 · / 80 GB
Llama 3.3 70Bllama53.8 GBcompatibleQ5 · / 80 GB
CodeLlama 70Bcodellama53.8 GBcompatibleQ5 · / 80 GB
DeepSeek R1 Distill 70Bdeepseek53.8 GBcompatibleQ5 · / 80 GB
Hermes 3 70Bhermes53.8 GBcompatibleQ5 · / 80 GB

Débloqués en rig 4×

Configuration entreprise / serveur (160 GB total) : vous accédez aux flagships open source 70B+ et aux MoE moyens.

DeepSeek V2deepseek · MoE148.4 GBserréQ4 · / 160 GB
DeepSeek Coder V2deepseek · MoE148.4 GBserréQ4 · / 160 GB
Qwen 3 235B A22Bqwen · MoE147.7 GBserréQ4 · / 160 GB
Qwen3 235B A22Bqwen147.7 GBserréQ4 · / 160 GB
Falcon 180Bfalcon113.2 GBcompatibleQ4 · / 160 GB
Mixtral 8x22Bmistral · MoE108.3 GBcompatibleQ5 · / 160 GB

GPUs similaires

// données mises à jour le 2026-05-12 via HuggingFace API.
// estimations VRAM : (params × bits/8) × overhead 20 %.