Mistral141B params39B actief (MoE)66k context

Mixtral 8x22B lokaal

Mixtral 8x22B is een open-weight LLM uit de Mistral-familie met 141B parameters. Hoofdgebruik: chat, RAG and general assistance. Gedetecteerde minimumhardware: NVIDIA H100 NVL (94 GB).

Technische info
Parameters141B
Max context66k
Q4_K_M88.6 GB
Q5_K_M108.3 GB
Q8157.6 GB
FP16315.2 GB
FamilieMistral
Laatste sync2026-05-12

Beschikbare quantizations

Q4_K_M
88.6GB

Acceptabel. Goede keuze bij beperkte VRAM.

Q5_K_M
108.3GB

Goede kwaliteit. Sweet spot voor grootte en precisie.

Q8
157.6GB

Bijna FP16-kwaliteit. Comfortabel voor productie.

FP16
315.2GB

Referentieprecisie. Maximale kwaliteit, dubbele VRAM.

Compatibele GPUs

GPUs die Mixtral 8x22B op één kaart kunnen draaien, gesorteerd op VRAM-marge.

Aanbevolen multi-GPU rigs

Voor Mixtral 8x22B met hogere quantization of meer context geeft een multi-GPU rig meer marge.

Aanbevolen rig

4× RTX 5090

Mixtral 8x22B with Ubuntu, vLLM, Open WebUI and the model already downloaded.

Configureer

Vergelijkbare modellen

VRAM-schatting: parameters x bits/8 plus marge. Echte prestaties hangen af van engine, context en batch.
sync: 2026-05-12