Mistral141B params39B aktiv (MoE)66k Kontext

Mixtral 8x22B lokal

Mixtral 8x22B ist ein Open-Weight-LLM aus der Familie Mistral mit 141B Parametern. Haupteinsatz: chat, RAG and general assistance. Erkannte Mindesthardware: NVIDIA H100 NVL (94 GB).

Technische Daten
Parameter141B
Max. Kontext66k
Q4_K_M88.6 GB
Q5_K_M108.3 GB
Q8157.6 GB
FP16315.2 GB
FamilieMistral
Letzter Sync2026-05-12

Verfügbare Quantizations

Q4_K_M
88.6GB

Akzeptabel. Guter Kompromiss bei knapper VRAM.

Q5_K_M
108.3GB

Gute Qualität. Sweet Spot aus Größe und Präzision.

Q8
157.6GB

Fast FP16-Qualität. Produktionstauglich.

FP16
315.2GB

Referenzpräzision. Maximale Qualität, doppelte VRAM.

Kompatible GPUs

GPUs, die Mixtral 8x22B auf einer einzelnen Karte ausführen können, nach VRAM-Spielraum sortiert.

Empfohlene Multi-GPU-Rigs

Für Mixtral 8x22B mit höherer Quantization oder mehr Kontext bietet ein Multi-GPU-Rig mehr Spielraum.

Empfohlener Rig

4× RTX 5090

Mixtral 8x22B with Ubuntu, vLLM, Open WebUI and the model already downloaded.

Konfigurieren

Ähnliche Modelle

VRAM-Schätzung: Parameter x bits/8 plus Reserve. Reale Leistung hängt von Engine, Kontext und Batch ab.
sync: 2026-05-12