DeepSeek685 B params37B actifs (MoE)128 k context★ populaire

DeepSeek V3.2 en local

DeepSeek V3.2 est un LLM open source de la famille DeepSeek, très grand (685 milliards de paramètres). Il est principalement utilisé pour le chat, le RAG et l'assistance générale. Modèle MoE avec 37B params actifs par token sur 685B au total. Le matériel minimum pour le faire tourner localement est Mac Studio M3 Ultra (512GB) (512 GB).

Paramètres685 B37B actifs (MoE)
Contexte max128 k
Q4_K_M poids430.6 GB
Q5_K_M poids526.3 GB
Q8 poids765.5 GB
FP16 poids1531.1 GB
FamilleDeepSeekmoe
Dernier sync2026-05-12

Quantizations disponibles

Q4_K_M
430.6GB

Acceptable. Configs limitées en VRAM.

Q5_K_M
526.3GB

Bonne qualité. Sweet spot taille / précision.

Q8
765.5GB

Quasi-identique au FP16. Production.

FP16
1531.1GB

Référence. Précision max, VRAM doublée.

⚡ modèle MoE — tous les experts (685B au total) doivent tenir en VRAM, mais seuls 37B sont actifs par token. La vitesse d'inférence est donc proche d'un modèle dense de 37B, mais la VRAM requise reste celle des 685B totaux.

GPUs compatibles

GPUs qui peuvent faire tourner DeepSeek V3.2 sur une seule carte, classés du plus accessible au plus haut de gamme.

Modèles similaires

// données mises à jour le 2026-05-12 via HuggingFace API.
// estimations VRAM : (params × bits/8) × overhead 20 %.
// les valeurs réelles varient selon le moteur (llama.cpp, vLLM, MLX), la longueur de contexte utilisée et le batch size.