Mistral141B params39B activos (MoE)66k contexto

Mixtral 8x22B en local

Mixtral 8x22B es un LLM open-weight de la familia Mistral, con 141B parámetros. Uso principal: chat, RAG and general assistance. Hardware mínimo detectado: NVIDIA H100 NVL (94 GB).

Ficha técnica
Parámetros141B
Contexto máximo66k
Q4_K_M88.6 GB
Q5_K_M108.3 GB
Q8157.6 GB
FP16315.2 GB
FamiliaMistral
Última sync2026-05-12

Quantizations disponibles

Q4_K_M
88.6GB

Aceptable. Buen compromiso si la VRAM es limitada.

Q5_K_M
108.3GB

Buena calidad. Punto dulce tamaño / precisión.

Q8
157.6GB

Calidad casi FP16. Cómodo para producción.

FP16
315.2GB

Precisión de referencia. Máxima calidad, más VRAM.

GPUs compatibles

GPUs capaces de ejecutar Mixtral 8x22B en una sola tarjeta, ordenadas por margen de VRAM.

Rigs multi-GPU recomendados

Para Mixtral 8x22B con quantization más alta o más contexto, un rig multi-GPU da más margen.

Rig recomendado

4× RTX 5090

Mixtral 8x22B with Ubuntu, vLLM, Open WebUI and the model already downloaded.

Configurar

Modelos similares

Estimaciones VRAM: parámetros x bits/8 más margen. El rendimiento real varía según motor, contexto y batch.
sync: 2026-05-12