Mistral24B params33k contextopopular

Mistral Small 3 24B en local

Mistral Small 3 24B es un LLM open-weight de la familia Mistral, con 24B parámetros. Uso principal: chat, RAG and general assistance. Hardware mínimo detectado: RTX 4060 Ti 16GB (16 GB).

Ficha técnica
Parámetros24B
Contexto máximo33k
Q4_K_M15.1 GB
Q5_K_M18.4 GB
Q826.8 GB
FP1653.6 GB
FamiliaMistral
Última sync2026-05-12

Quantizations disponibles

Q4_K_M
15.1GB

Aceptable. Buen compromiso si la VRAM es limitada.

Q5_K_M
18.4GB

Buena calidad. Punto dulce tamaño / precisión.

Q8
26.8GB

Calidad casi FP16. Cómodo para producción.

FP16
53.6GB

Precisión de referencia. Máxima calidad, más VRAM.

GPUs compatibles

GPUs capaces de ejecutar Mistral Small 3 24B en una sola tarjeta, ordenadas por margen de VRAM.

Rigs multi-GPU recomendados

Para Mistral Small 3 24B con quantization más alta o más contexto, un rig multi-GPU da más margen.

Rig recomendado

2× GTX 1070

Mistral Small 3 24B with Ubuntu, vLLM, Open WebUI and the model already downloaded.

Configurar

Modelos similares

Estimaciones VRAM: parámetros x bits/8 más margen. El rendimiento real varía según motor, contexto y batch.
sync: 2026-05-12