CodeLlama13B params16k contexto

CodeLlama 13B en local

CodeLlama 13B es un LLM open-weight de la familia CodeLlama, con 13B parámetros. Uso principal: code and developer agents. Hardware mínimo detectado: RTX 3080 10GB (10 GB).

Ficha técnica
Parámetros13B
Contexto máximo16k
Q4_K_M8.2 GB
Q5_K_M10.0 GB
Q814.5 GB
FP1629.1 GB
FamiliaCodeLlama
Última sync2026-05-12

Quantizations disponibles

Q4_K_M
8.2GB

Aceptable. Buen compromiso si la VRAM es limitada.

Q5_K_M
10.0GB

Buena calidad. Punto dulce tamaño / precisión.

Q8
14.5GB

Calidad casi FP16. Cómodo para producción.

FP16
29.1GB

Precisión de referencia. Máxima calidad, más VRAM.

GPUs compatibles

GPUs capaces de ejecutar CodeLlama 13B en una sola tarjeta, ordenadas por margen de VRAM.

Rigs multi-GPU recomendados

Para CodeLlama 13B con quantization más alta o más contexto, un rig multi-GPU da más margen.

Rig recomendado

2× GTX 1060 6GB

CodeLlama 13B with Ubuntu, vLLM, Open WebUI and the model already downloaded.

Configurar

Modelos similares

Estimaciones VRAM: parámetros x bits/8 más margen. El rendimiento real varía según motor, contexto y batch.
sync: 2026-05-12