Mistral141 B params39B actifs (MoE)66 k context

Mixtral 8x22B en local

Mixtral 8x22B est un LLM open source de la famille Mistral, très grand (141 milliards de paramètres). Il est principalement utilisé pour le chat, le RAG et l'assistance générale. Modèle MoE avec 39B params actifs par token sur 141B au total. Le matériel minimum pour le faire tourner localement est NVIDIA H100 NVL (94 GB).

Paramètres141 B39B actifs (MoE)
Contexte max66 k
Q4_K_M poids88.6 GB
Q5_K_M poids108.3 GB
Q8 poids157.6 GB
FP16 poids315.2 GB
FamilleMistralmoe
Dernier sync2026-05-12

Quantizations disponibles

Q4_K_M
88.6GB

Acceptable. Configs limitées en VRAM.

Q5_K_M
108.3GB

Bonne qualité. Sweet spot taille / précision.

Q8
157.6GB

Quasi-identique au FP16. Production.

FP16
315.2GB

Référence. Précision max, VRAM doublée.

⚡ modèle MoE — tous les experts (141B au total) doivent tenir en VRAM, mais seuls 39B sont actifs par token. La vitesse d'inférence est donc proche d'un modèle dense de 39B, mais la VRAM requise reste celle des 141B totaux.

GPUs compatibles

GPUs qui peuvent faire tourner Mixtral 8x22B sur une seule carte, classés du plus accessible au plus haut de gamme.

Rigs multi-GPU recommandés

Pour faire tourner Mixtral 8x22B en quantization plus haute (Q8, FP16) ou avec plus de marge pour le contexte long, un rig à plusieurs GPU consumer offre le meilleur rapport perf/€.

Rig prêt à l'emploi

Recommandation
Rig Pro — pré-installé avec Mixtral 8x22B

4× RTX 5090, OS Ubuntu, vLLM + Open WebUI, modèle déjà téléchargé. Vous branchez, c'est en ligne.

8 990 €
Configurer

Modèles similaires

// données mises à jour le 2026-05-12 via HuggingFace API.
// estimations VRAM : (params × bits/8) × overhead 20 %.
// les valeurs réelles varient selon le moteur (llama.cpp, vLLM, MLX), la longueur de contexte utilisée et le batch size.