InternLM20B params33k contexto

InternLM 2.5 20B en local

InternLM 2.5 20B es un LLM open-weight de la familia InternLM, con 20B parámetros. Uso principal: chat, RAG and general assistance. Hardware mínimo detectado: RTX 4060 Ti 16GB (16 GB).

Ficha técnica
Parámetros20B
Contexto máximo33k
Q4_K_M12.6 GB
Q5_K_M15.4 GB
Q822.4 GB
FP1644.7 GB
FamiliaInternLM
Última sync2026-05-12

Quantizations disponibles

Q4_K_M
12.6GB

Aceptable. Buen compromiso si la VRAM es limitada.

Q5_K_M
15.4GB

Buena calidad. Punto dulce tamaño / precisión.

Q8
22.4GB

Calidad casi FP16. Cómodo para producción.

FP16
44.7GB

Precisión de referencia. Máxima calidad, más VRAM.

GPUs compatibles

GPUs capaces de ejecutar InternLM 2.5 20B en una sola tarjeta, ordenadas por margen de VRAM.

Rigs multi-GPU recomendados

Para InternLM 2.5 20B con quantization más alta o más contexto, un rig multi-GPU da más margen.

Rig recomendado

2× GTX 1070

InternLM 2.5 20B with Ubuntu, vLLM, Open WebUI and the model already downloaded.

Configurar

Modelos similares

Estimaciones VRAM: parámetros x bits/8 más margen. El rendimiento real varía según motor, contexto y batch.
sync: 2026-05-12