NVIDIApro · workstationRTX A (Ampere)

RTX A4500 pour l'IA locale

Le RTX A4500 est un GPU milieu de gamme (20 GB de VRAM) destiné aux stations de travail professionnelles. Sur les 242 modèles open source de notre catalogue, 179 tournent confortablement dessus en mono-carte.

VRAM
20GB
Catégorie
Workstation
Série
RTX A (Ampere)
Vendor
NVIDIA

Modèles qui tournent confortablement

Ces modèles tiennent dans 20GB avec marge pour le contexte long et l'inférence stable. Triés du plus gros au plus petit.

Gemma 2 27Bgemma17.0 GBcompatibleQ4 · / 20 GB
Gemma 3 27Bgemma17.0 GBcompatibleQ4 · / 20 GB
Gemma 4 26B A4Bgemma · MoE16.3 GBcompatibleQ4 · / 20 GB
Mistral Small 3 24Bmistral15.1 GBcompatibleQ4 · / 20 GB
Mistral Small 3.1 24Bmistral15.1 GBcompatibleQ4 · / 20 GB
Mistral Small 3.2 24Bmistral15.1 GBcompatibleQ4 · / 20 GB
Devstral Small 2 24Bdevstral15.1 GBcompatibleQ4 · / 20 GB
Mistral Small 22Bmistral16.9 GBcompatibleQ5 · / 20 GB
Codestral 22Bcodestral16.9 GBcompatibleQ5 · / 20 GB
Reka Flash 3 21Breka16.1 GBcompatibleQ5 · / 20 GB
InternLM 2.5 20Binternlm15.4 GBcompatibleQ5 · / 20 GB
DeepSeek V2 Litedeepseek · MoE12.3 GBcompatibleQ5 · / 20 GB
DeepSeek Coder V2 Litedeepseek · MoE12.3 GBcompatibleQ5 · / 20 GB
StarCoder 2 15Bstarcoder16.8 GBcompatibleQ8 · / 20 GB
Phi-4 Reasoning Vision 15Bphi16.8 GBcompatibleQ8 · / 20 GB
Qwen 2.5 14Bqwen15.6 GBcompatibleQ8 · / 20 GB
Qwen 2.5 Coder 14Bqwen15.6 GBcompatibleQ8 · / 20 GB
Qwen 3 14Bqwen15.6 GBcompatibleQ8 · / 20 GB
DeepSeek R1 Distill 14Bdeepseek15.6 GBcompatibleQ8 · / 20 GB
Phi-3 Medium 14Bphi15.6 GBcompatibleQ8 · / 20 GB
Phi-4 14Bphi15.6 GBcompatibleQ8 · / 20 GB
GLM-4.5 Airglm15.6 GBcompatibleQ8 · / 20 GB
Qwen2.5 14B Instructqwen15.6 GBcompatibleQ8 · / 20 GB
Qwen3 14Bqwen15.6 GBcompatibleQ8 · / 20 GB
Qwen2.5 Coder 14B Instructqwen15.6 GBcompatibleQ8 · / 20 GB
DeepSeek R1 Distill Qwen 14Bqwen15.6 GBcompatibleQ8 · / 20 GB
Llama 2 13Bllama14.5 GBcompatibleQ8 · / 20 GB
CodeLlama 13Bcodellama14.5 GBcompatibleQ8 · / 20 GB
OLMo 2 13Bolmo14.5 GBcompatibleQ8 · / 20 GB
Vicuna 13Bvicuna14.5 GBcompatibleQ8 · / 20 GB

+ 149 autres — voir le calculateur complet →

Modèles serrés (possibles mais lents)

Ces modèles tiennent tout juste. Tournent mais le contexte disponible est limité, et l'inférence peut être lente si on dépasse la VRAM (offload CPU).

Gemma 4 31Bgemma19.5 GBserréQ4 · / 20 GB
Qwen 3 30B A3Bqwen · MoE18.9 GBserréQ4 · / 20 GB
MPT 30Bmpt18.9 GBserréQ4 · / 20 GB
Qwen3 Coder 30B A3B Instructqwen18.9 GBserréQ4 · / 20 GB
Qwen3 30B A3Bqwen18.9 GBserréQ4 · / 20 GB
Qwen3 30B A3B Instruct 2507qwen18.9 GBserréQ4 · / 20 GB

Débloqués en rig 2×

Avec 2 cartes en parallèle (40 GB total), vous accédez à des modèles plus gros et à des quantizations plus hautes.

Mixtral 8x7Bmistral · MoE29.5 GBcompatibleQ4 · / 40 GB
Falcon 40Bfalcon30.7 GBcompatibleQ5 · / 40 GB
Command R 35Bcommand26.9 GBcompatibleQ5 · / 40 GB
Aya 23 35Baya26.9 GBcompatibleQ5 · / 40 GB
CodeLlama 34Bcodellama26.1 GBcompatibleQ5 · / 40 GB
Yi 1.5 34Byi26.1 GBcompatibleQ5 · / 40 GB
dolphin 2.9.1 yi 1.5 34byi26.1 GBcompatibleQ5 · / 40 GB
Qwen 2.5 32Bqwen24.6 GBcompatibleQ5 · / 40 GB
Qwen 2.5 Coder 32Bqwen24.6 GBcompatibleQ5 · / 40 GB
Qwen 3 32Bqwen24.6 GBcompatibleQ5 · / 40 GB
QwQ 32Bqwq24.6 GBcompatibleQ5 · / 40 GB
DeepSeek R1 Distill 32Bdeepseek24.6 GBcompatibleQ5 · / 40 GB
Qwen 2.5 VL 32Bqwen24.6 GBcompatibleQ5 · / 40 GB
Granite 4 H-Small 32B-A9Bgranite · MoE24.6 GBcompatibleQ5 · / 40 GB
GLM-4.6glm24.6 GBcompatibleQ5 · / 40 GB

Débloqués en rig 4×

Configuration entreprise / serveur (80 GB total) : vous accédez aux flagships open source 70B+ et aux MoE moyens.

Mistral Large 123Bmistral77.3 GBserréQ4 · / 80 GB
Llama 4 Scout 17Bx16llama · MoE68.5 GBserréQ4 · / 80 GB
Command R+ 104Bcommand65.4 GBcompatibleQ4 · / 80 GB
Qwen3 Next 80B A3B Instructqwen61.5 GBcompatibleQ5 · / 80 GB
Qwen 2.5 72Bqwen55.3 GBcompatibleQ5 · / 80 GB
Qwen 2.5 VL 72Bqwen55.3 GBcompatibleQ5 · / 80 GB
Qwen2.5 72B Instructqwen55.3 GBcompatibleQ5 · / 80 GB
Llama 2 70Bllama53.8 GBcompatibleQ5 · / 80 GB
Llama 3 70Bllama53.8 GBcompatibleQ5 · / 80 GB

GPUs similaires

// données mises à jour le 2026-05-12 via HuggingFace API.
// estimations VRAM : (params × bits/8) × overhead 20 %.