Mistral24B params128k contestopopolare

Mistral Small 3.2 24B in locale

Mistral Small 3.2 24B è un LLM open-weight della famiglia Mistral, con 24B parametri. Uso principale: chat, RAG and general assistance. Hardware minimo rilevato: RTX 4060 Ti 16GB (16 GB).

Scheda tecnica
Parametri24B
Contesto massimo128k
Q4_K_M15.1 GB
Q5_K_M18.4 GB
Q826.8 GB
FP1653.6 GB
FamigliaMistral
Ultima sync2026-05-12

Quantization disponibili

Q4_K_M
15.1GB

Accettabile. Buon compromesso con VRAM limitata.

Q5_K_M
18.4GB

Buona qualità. Punto dolce tra dimensione e precisione.

Q8
26.8GB

Qualità quasi FP16. Comoda in produzione.

FP16
53.6GB

Precisione di riferimento. Qualità massima, più VRAM.

GPU compatibili

GPU capaci di eseguire Mistral Small 3.2 24B su una sola scheda, ordinate per margine VRAM.

Rig multi-GPU consigliati

Per Mistral Small 3.2 24B con quantization più alta o più contesto, un rig multi-GPU offre più margine.

Rig consigliato

2× GTX 1070

Mistral Small 3.2 24B with Ubuntu, vLLM, Open WebUI and the model already downloaded.

Configura

Modelli simili

Stime VRAM: parametri x bits/8 più margine. Prestazioni reali secondo engine, contesto e batch.
sync: 2026-05-12