Mistral47B params13B attivi (MoE)33k contestopopolare

Mixtral 8x7B in locale

Mixtral 8x7B è un LLM open-weight della famiglia Mistral, con 47B parametri. Uso principale: chat, RAG and general assistance. Hardware minimo rilevato: RTX 5090 (32 GB).

Scheda tecnica
Parametri47B
Contesto massimo33k
Q4_K_M29.5 GB
Q5_K_M36.1 GB
Q852.5 GB
FP16105.1 GB
FamigliaMistral
Ultima sync2026-05-12

Quantization disponibili

Q4_K_M
29.5GB

Accettabile. Buon compromesso con VRAM limitata.

Q5_K_M
36.1GB

Buona qualità. Punto dolce tra dimensione e precisione.

Q8
52.5GB

Qualità quasi FP16. Comoda in produzione.

FP16
105.1GB

Precisione di riferimento. Qualità massima, più VRAM.

GPU compatibili

GPU capaci di eseguire Mixtral 8x7B su una sola scheda, ordinate per margine VRAM.

Rig multi-GPU consigliati

Per Mixtral 8x7B con quantization più alta o più contesto, un rig multi-GPU offre più margine.

Rig consigliato

4× GTX 1070

Mixtral 8x7B with Ubuntu, vLLM, Open WebUI and the model already downloaded.

Configura

Modelli simili

Stime VRAM: parametri x bits/8 più margine. Prestazioni reali secondo engine, contesto e batch.
sync: 2026-05-12