Mistral141B params39B attivi (MoE)66k contesto

Mixtral 8x22B in locale

Mixtral 8x22B è un LLM open-weight della famiglia Mistral, con 141B parametri. Uso principale: chat, RAG and general assistance. Hardware minimo rilevato: NVIDIA H100 NVL (94 GB).

Scheda tecnica
Parametri141B
Contesto massimo66k
Q4_K_M88.6 GB
Q5_K_M108.3 GB
Q8157.6 GB
FP16315.2 GB
FamigliaMistral
Ultima sync2026-05-12

Quantization disponibili

Q4_K_M
88.6GB

Accettabile. Buon compromesso con VRAM limitata.

Q5_K_M
108.3GB

Buona qualità. Punto dolce tra dimensione e precisione.

Q8
157.6GB

Qualità quasi FP16. Comoda in produzione.

FP16
315.2GB

Precisione di riferimento. Qualità massima, più VRAM.

GPU compatibili

GPU capaci di eseguire Mixtral 8x22B su una sola scheda, ordinate per margine VRAM.

Rig multi-GPU consigliati

Per Mixtral 8x22B con quantization più alta o più contesto, un rig multi-GPU offre più margine.

Rig consigliato

4× RTX 5090

Mixtral 8x22B with Ubuntu, vLLM, Open WebUI and the model already downloaded.

Configura

Modelli simili

Stime VRAM: parametri x bits/8 più margine. Prestazioni reali secondo engine, contesto e batch.
sync: 2026-05-12