DeepSeek16 B params2.4B actifs (MoE)33 k context

DeepSeek V2 Lite en local

DeepSeek V2 Lite est un LLM open source de la famille DeepSeek, grand (16 milliards de paramètres). Il est principalement utilisé pour le chat, le RAG et l'assistance générale. Modèle MoE avec 2.4B params actifs par token sur 16B au total. Le matériel minimum pour le faire tourner localement est GTX 1080 Ti (11 GB).

Paramètres16 B2.4B actifs (MoE)
Contexte max33 k
Q4_K_M poids10.1 GB
Q5_K_M poids12.3 GB
Q8 poids17.9 GB
FP16 poids35.8 GB
FamilleDeepSeekmoe
Dernier sync2026-05-12

Quantizations disponibles

Q4_K_M
10.1GB

Acceptable. Configs limitées en VRAM.

Q5_K_M
12.3GB

Bonne qualité. Sweet spot taille / précision.

Q8
17.9GB

Quasi-identique au FP16. Production.

FP16
35.8GB

Référence. Précision max, VRAM doublée.

⚡ modèle MoE — tous les experts (16B au total) doivent tenir en VRAM, mais seuls 2.4B sont actifs par token. La vitesse d'inférence est donc proche d'un modèle dense de 2.4B, mais la VRAM requise reste celle des 16B totaux.

GPUs compatibles

GPUs qui peuvent faire tourner DeepSeek V2 Lite sur une seule carte, classés du plus accessible au plus haut de gamme.

Rigs multi-GPU recommandés

Pour faire tourner DeepSeek V2 Lite en quantization plus haute (Q8, FP16) ou avec plus de marge pour le contexte long, un rig à plusieurs GPU consumer offre le meilleur rapport perf/€.

Rig prêt à l'emploi

Recommandation
Rig Pro — pré-installé avec DeepSeek V2 Lite

2× GTX 1060 6GB, OS Ubuntu, vLLM + Open WebUI, modèle déjà téléchargé. Vous branchez, c'est en ligne.

8 990 €
Configurer

Modèles similaires

// données mises à jour le 2026-05-12 via HuggingFace API.
// estimations VRAM : (params × bits/8) × overhead 20 %.
// les valeurs réelles varient selon le moteur (llama.cpp, vLLM, MLX), la longueur de contexte utilisée et le batch size.