Mistral24B params128k contextopopular

Mistral Small 3.2 24B en local

Mistral Small 3.2 24B es un LLM open-weight de la familia Mistral, con 24B parámetros. Uso principal: chat, RAG and general assistance. Hardware mínimo detectado: RTX 4060 Ti 16GB (16 GB).

Ficha técnica
Parámetros24B
Contexto máximo128k
Q4_K_M15.1 GB
Q5_K_M18.4 GB
Q826.8 GB
FP1653.6 GB
FamiliaMistral
Última sync2026-05-12

Quantizations disponibles

Q4_K_M
15.1GB

Aceptable. Buen compromiso si la VRAM es limitada.

Q5_K_M
18.4GB

Buena calidad. Punto dulce tamaño / precisión.

Q8
26.8GB

Calidad casi FP16. Cómodo para producción.

FP16
53.6GB

Precisión de referencia. Máxima calidad, más VRAM.

GPUs compatibles

GPUs capaces de ejecutar Mistral Small 3.2 24B en una sola tarjeta, ordenadas por margen de VRAM.

Rigs multi-GPU recomendados

Para Mistral Small 3.2 24B con quantization más alta o más contexto, un rig multi-GPU da más margen.

Rig recomendado

2× GTX 1070

Mistral Small 3.2 24B with Ubuntu, vLLM, Open WebUI and the model already downloaded.

Configurar

Modelos similares

Estimaciones VRAM: parámetros x bits/8 más margen. El rendimiento real varía según motor, contexto y batch.
sync: 2026-05-12