Mistral123B params128k contextopopular

Mistral Large 123B en local

Mistral Large 123B es un LLM open-weight de la familia Mistral, con 123B parámetros. Uso principal: chat, RAG and general assistance. Hardware mínimo detectado: NVIDIA A100 80GB (80 GB).

Ficha técnica
Parámetros123B
Contexto máximo128k
Q4_K_M77.3 GB
Q5_K_M94.5 GB
Q8137.5 GB
FP16274.9 GB
FamiliaMistral
Última sync2026-05-12

Quantizations disponibles

Q4_K_M
77.3GB

Aceptable. Buen compromiso si la VRAM es limitada.

Q5_K_M
94.5GB

Buena calidad. Punto dulce tamaño / precisión.

Q8
137.5GB

Calidad casi FP16. Cómodo para producción.

FP16
274.9GB

Precisión de referencia. Máxima calidad, más VRAM.

GPUs compatibles

GPUs capaces de ejecutar Mistral Large 123B en una sola tarjeta, ordenadas por margen de VRAM.

Rigs multi-GPU recomendados

Para Mistral Large 123B con quantization más alta o más contexto, un rig multi-GPU da más margen.

Rig recomendado

4× TITAN RTX

Mistral Large 123B with Ubuntu, vLLM, Open WebUI and the model already downloaded.

Configurar

Modelos similares

Estimaciones VRAM: parámetros x bits/8 más margen. El rendimiento real varía según motor, contexto y batch.
sync: 2026-05-12