Llama109B params17B activos (MoE)10000k contextopopular

Llama 4 Scout 17Bx16 en local

Llama 4 Scout 17Bx16 es un LLM open-weight de la familia Llama, con 109B parámetros. Uso principal: chat, RAG and general assistance. Hardware mínimo detectado: NVIDIA A100 80GB (80 GB).

Ficha técnica
Parámetros109B
Contexto máximo10000k
Q4_K_M68.5 GB
Q5_K_M83.7 GB
Q8121.8 GB
FP16243.6 GB
FamiliaLlama
Última sync2026-05-12

Quantizations disponibles

Q4_K_M
68.5GB

Aceptable. Buen compromiso si la VRAM es limitada.

Q5_K_M
83.7GB

Buena calidad. Punto dulce tamaño / precisión.

Q8
121.8GB

Calidad casi FP16. Cómodo para producción.

FP16
243.6GB

Precisión de referencia. Máxima calidad, más VRAM.

GPUs compatibles

GPUs capaces de ejecutar Llama 4 Scout 17Bx16 en una sola tarjeta, ordenadas por margen de VRAM.

Rigs multi-GPU recomendados

Para Llama 4 Scout 17Bx16 con quantization más alta o más contexto, un rig multi-GPU da más margen.

Rig recomendado

4× TITAN RTX

Llama 4 Scout 17Bx16 with Ubuntu, vLLM, Open WebUI and the model already downloaded.

Configurar

Modelos similares

Estimaciones VRAM: parámetros x bits/8 más margen. El rendimiento real varía según motor, contexto y batch.
sync: 2026-05-12