Mistral123B params128k contestopopolare

Mistral Large 123B in locale

Mistral Large 123B è un LLM open-weight della famiglia Mistral, con 123B parametri. Uso principale: chat, RAG and general assistance. Hardware minimo rilevato: NVIDIA A100 80GB (80 GB).

Scheda tecnica
Parametri123B
Contesto massimo128k
Q4_K_M77.3 GB
Q5_K_M94.5 GB
Q8137.5 GB
FP16274.9 GB
FamigliaMistral
Ultima sync2026-05-12

Quantization disponibili

Q4_K_M
77.3GB

Accettabile. Buon compromesso con VRAM limitata.

Q5_K_M
94.5GB

Buona qualità. Punto dolce tra dimensione e precisione.

Q8
137.5GB

Qualità quasi FP16. Comoda in produzione.

FP16
274.9GB

Precisione di riferimento. Qualità massima, più VRAM.

GPU compatibili

GPU capaci di eseguire Mistral Large 123B su una sola scheda, ordinate per margine VRAM.

Rig multi-GPU consigliati

Per Mistral Large 123B con quantization più alta o più contesto, un rig multi-GPU offre più margine.

Rig consigliato

4× TITAN RTX

Mistral Large 123B with Ubuntu, vLLM, Open WebUI and the model already downloaded.

Configura

Modelli simili

Stime VRAM: parametri x bits/8 più margine. Prestazioni reali secondo engine, contesto e batch.
sync: 2026-05-12