face-à-face · LLM local

Mistral Large 123B vs Mixtral 8x22B

Comparatif chiffré : VRAM requise par quantization, GPUs compatibles pour faire tourner chacun en local, et verdict construit depuis les specs réelles. Pas de bench truqué, juste les chiffres.

123B
params Mistral Large 123B
141B
params Mixtral 8x22B
Mistral
famille A
Mistral
famille B
▲ Specs côte à côte

Les chiffres bruts.

Mistral · 141B · MoE 39B actifs

Mixtral 8x22B

  • Total paramètres141B
  • Paramètres actifs (MoE)39B
  • Contexte max66k tokens
  • FamilleMistral
  • TypeMoE
→ Fiche Mixtral 8x22B
▲ VRAM par quantization

Combien de VRAM il te faut.

Estimation incluant l'overhead (KV cache + activations) ×1.12. Pour un MoE, on prend les paramètres totaux car le modèle complet doit être chargé en mémoire (les experts inactifs aussi).

QuantMistral Large 123BMixtral 8x22BÉcart
Q360.3 GB28.7 GB31.6 GB
Q477.5 GB36.9 GB40.6 GB
Q594.7 GB45 GB49.7 GB
Q6111.9 GB53.2 GB58.7 GB
Q8137.8 GB65.5 GB72.3 GB
FP16275.5 GB131 GB144.5 GB
▲ GPU minimum pour chacun en Q4

Quel GPU suffit pour quoi.

▲ Verdict

Ce que les chiffres disent.

Mistral Large 123B et Mixtral 8x22B sont de taille comparable (123B vs 141B), donc le choix se joue sur la famille, le contexte et le use case. Mixtral 8x22B est un MoE (39B actifs par token) — débit plus élevé sur serveur dédié, mais charge VRAM complète à charger.

Choisir Mixtral 8x22B

Souveraineté FR/EU, qualité GPT-4-class sur le flagship, équipe basée en France.

→ Fiche Mixtral 8x22B

Tester avec ton GPU ?

Le calculateur croise ces 2 modèles avec 200+ GPUs et te donne tok/s estimés, €/Mtok et break-even cloud.