Mistral47B params13B activos (MoE)33k contextopopular

Mixtral 8x7B en local

Mixtral 8x7B es un LLM open-weight de la familia Mistral, con 47B parámetros. Uso principal: chat, RAG and general assistance. Hardware mínimo detectado: RTX 5090 (32 GB).

Ficha técnica
Parámetros47B
Contexto máximo33k
Q4_K_M29.5 GB
Q5_K_M36.1 GB
Q852.5 GB
FP16105.1 GB
FamiliaMistral
Última sync2026-05-12

Quantizations disponibles

Q4_K_M
29.5GB

Aceptable. Buen compromiso si la VRAM es limitada.

Q5_K_M
36.1GB

Buena calidad. Punto dulce tamaño / precisión.

Q8
52.5GB

Calidad casi FP16. Cómodo para producción.

FP16
105.1GB

Precisión de referencia. Máxima calidad, más VRAM.

GPUs compatibles

GPUs capaces de ejecutar Mixtral 8x7B en una sola tarjeta, ordenadas por margen de VRAM.

Rigs multi-GPU recomendados

Para Mixtral 8x7B con quantization más alta o más contexto, un rig multi-GPU da más margen.

Rig recomendado

4× GTX 1070

Mixtral 8x7B with Ubuntu, vLLM, Open WebUI and the model already downloaded.

Configurar

Modelos similares

Estimaciones VRAM: parámetros x bits/8 más margen. El rendimiento real varía según motor, contexto y batch.
sync: 2026-05-12