NVIDIAconsumerRTX 40

RTX 4070 Super pour l'IA locale

Le RTX 4070 Super est un GPU entrée de gamme (12 GB de VRAM) destiné aux configurations grand public et workstations. Sur les 242 modèles open source de notre catalogue, 168 tournent confortablement dessus en mono-carte.

VRAM
12GB
Catégorie
Consumer
Série
RTX 40
Vendor
NVIDIA

Modèles qui tournent confortablement

Ces modèles tiennent dans 12GB avec marge pour le contexte long et l'inférence stable. Triés du plus gros au plus petit.

DeepSeek V2 Litedeepseek · MoE10.1 GBcompatibleQ4 · / 12 GB
DeepSeek Coder V2 Litedeepseek · MoE10.1 GBcompatibleQ4 · / 12 GB
StarCoder 2 15Bstarcoder9.4 GBcompatibleQ4 · / 12 GB
Phi-4 Reasoning Vision 15Bphi9.4 GBcompatibleQ4 · / 12 GB
Qwen 2.5 14Bqwen8.8 GBcompatibleQ4 · / 12 GB
Qwen 2.5 Coder 14Bqwen8.8 GBcompatibleQ4 · / 12 GB
Qwen 3 14Bqwen8.8 GBcompatibleQ4 · / 12 GB
DeepSeek R1 Distill 14Bdeepseek8.8 GBcompatibleQ4 · / 12 GB
Phi-3 Medium 14Bphi8.8 GBcompatibleQ4 · / 12 GB
Phi-4 14Bphi8.8 GBcompatibleQ4 · / 12 GB
GLM-4.5 Airglm8.8 GBcompatibleQ4 · / 12 GB
Qwen2.5 14B Instructqwen8.8 GBcompatibleQ4 · / 12 GB
Qwen3 14Bqwen8.8 GBcompatibleQ4 · / 12 GB
Qwen2.5 Coder 14B Instructqwen8.8 GBcompatibleQ4 · / 12 GB
DeepSeek R1 Distill Qwen 14Bqwen8.8 GBcompatibleQ4 · / 12 GB
Llama 2 13Bllama10.0 GBcompatibleQ5 · / 12 GB
CodeLlama 13Bcodellama10.0 GBcompatibleQ5 · / 12 GB
OLMo 2 13Bolmo10.0 GBcompatibleQ5 · / 12 GB
Vicuna 13Bvicuna10.0 GBcompatibleQ5 · / 12 GB
Mistral Nemo 12Bmistral9.2 GBcompatibleQ5 · / 12 GB
Gemma 3 12Bgemma9.2 GBcompatibleQ5 · / 12 GB
StableLM 2 12Bstable9.2 GBcompatibleQ5 · / 12 GB
Solar 10.7Bsolar8.2 GBcompatibleQ5 · / 12 GB
Falcon 3 10Bfalcon7.7 GBcompatibleQ5 · / 12 GB
Gemma 2 9Bgemma10.1 GBcompatibleQ8 · / 12 GB
Yi 1.5 9Byi10.1 GBcompatibleQ8 · / 12 GB
Qwen 3.5 9Bqwen10.1 GBcompatibleQ8 · / 12 GB
GLM-4 9Bglm10.1 GBcompatibleQ8 · / 12 GB
GLM-4.7 Flashglm10.1 GBcompatibleQ8 · / 12 GB
GLM-4.1V 9B Thinkingglm10.1 GBcompatibleQ8 · / 12 GB

+ 138 autres — voir le calculateur complet →

Débloqués en rig 2×

Avec 2 cartes en parallèle (24 GB total), vous accédez à des modèles plus gros et à des quantizations plus hautes.

Command R 35Bcommand22.0 GBserréQ4 · / 24 GB
Aya 23 35Baya22.0 GBserréQ4 · / 24 GB
CodeLlama 34Bcodellama21.4 GBserréQ4 · / 24 GB
Yi 1.5 34Byi21.4 GBserréQ4 · / 24 GB
dolphin 2.9.1 yi 1.5 34byi21.4 GBserréQ4 · / 24 GB
Qwen 2.5 32Bqwen20.1 GBcompatibleQ4 · / 24 GB
Qwen 2.5 Coder 32Bqwen20.1 GBcompatibleQ4 · / 24 GB
Qwen 3 32Bqwen20.1 GBcompatibleQ4 · / 24 GB
QwQ 32Bqwq20.1 GBcompatibleQ4 · / 24 GB
DeepSeek R1 Distill 32Bdeepseek20.1 GBcompatibleQ4 · / 24 GB
Qwen 2.5 VL 32Bqwen20.1 GBcompatibleQ4 · / 24 GB
Granite 4 H-Small 32B-A9Bgranite · MoE20.1 GBcompatibleQ4 · / 24 GB
GLM-4.6glm20.1 GBcompatibleQ4 · / 24 GB
GLM-4.7glm20.1 GBcompatibleQ4 · / 24 GB
GLM-5glm20.1 GBcompatibleQ4 · / 24 GB

Débloqués en rig 4×

Configuration entreprise / serveur (48 GB total) : vous accédez aux flagships open source 70B+ et aux MoE moyens.

Qwen 2.5 72Bqwen45.3 GBserréQ4 · / 48 GB
Qwen 2.5 VL 72Bqwen45.3 GBserréQ4 · / 48 GB
Qwen2.5 72B Instructqwen45.3 GBserréQ4 · / 48 GB
Llama 2 70Bllama44.0 GBserréQ4 · / 48 GB
Llama 3 70Bllama44.0 GBserréQ4 · / 48 GB
Llama 3.1 70Bllama44.0 GBserréQ4 · / 48 GB
Llama 3.3 70Bllama44.0 GBserréQ4 · / 48 GB
CodeLlama 70Bcodellama44.0 GBserréQ4 · / 48 GB
DeepSeek R1 Distill 70Bdeepseek44.0 GBserréQ4 · / 48 GB
Hermes 3 70Bhermes44.0 GBserréQ4 · / 48 GB

GPUs similaires

// données mises à jour le 2026-05-12 via HuggingFace API.
// estimations VRAM : (params × bits/8) × overhead 20 %.