Qwen1.5B paramspopular
Qwen2.5 1.5B en local
Qwen2.5 1.5B es un LLM open-weight de la familia Qwen, con 1.5B parámetros. Uso principal: chat, RAG and general assistance. Hardware mínimo detectado: GTX 1650 (4 GB).
Ficha técnica
Parámetros1.5B
Q4_K_M0.9 GB
Q5_K_M1.2 GB
Q81.7 GB
FP163.4 GB
FamiliaQwen
Última sync2026-05-12
Quantizations disponibles
pesos GGUFQ4_K_M
0.9GB
Aceptable. Buen compromiso si la VRAM es limitada.
Q5_K_M
1.2GB
Buena calidad. Punto dulce tamaño / precisión.
Q8
1.7GB
Calidad casi FP16. Cómodo para producción.
FP16
3.4GB
Precisión de referencia. Máxima calidad, más VRAM.
GPUs compatibles
12 single-GPUGPUs capaces de ejecutar Qwen2.5 1.5B en una sola tarjeta, ordenadas por margen de VRAM.
GTX 1650
NVIDIA4 GB · GTX 16
3.4 / 4 GBcómodo · FP16
GTX 1060 6GB
NVIDIA6 GB · GTX 10
3.4 / 6 GBcómodo · FP16
GTX 1660
NVIDIA6 GB · GTX 16
3.4 / 6 GBcómodo · FP16
GTX 1660 Super
NVIDIA6 GB · GTX 16
3.4 / 6 GBcómodo · FP16
GTX 1660 Ti
NVIDIA6 GB · GTX 16
3.4 / 6 GBcómodo · FP16
RTX 2060 6GB
NVIDIA6 GB · RTX 20
3.4 / 6 GBcómodo · FP16
RTX 3050 6GB
NVIDIA6 GB · RTX 30
3.4 / 6 GBcómodo · FP16
Arc A380
Intel6 GB · Arc Alchemist
3.4 / 6 GBcómodo · FP16
GTX 1070
NVIDIA8 GB · GTX 10
3.4 / 8 GBcómodo · FP16
GTX 1070 Ti
NVIDIA8 GB · GTX 10
3.4 / 8 GBcómodo · FP16
GTX 1080
NVIDIA8 GB · GTX 10
3.4 / 8 GBcómodo · FP16
RTX 2060 Super
NVIDIA8 GB · RTX 20
3.4 / 8 GBcómodo · FP16
Rigs multi-GPU recomendados
2x / 4x consumer GPUsPara Qwen2.5 1.5B con quantization más alta o más contexto, un rig multi-GPU da más margen.
2× GTX 1650
NVIDIA8 GB · GTX 16
3.4 / 8 GBcómodo · FP16
2× GTX 1060 6GB
NVIDIA12 GB · GTX 10
3.4 / 12 GBcómodo · FP16
2× GTX 1660
NVIDIA12 GB · GTX 16
3.4 / 12 GBcómodo · FP16
2× GTX 1660 Super
NVIDIA12 GB · GTX 16
3.4 / 12 GBcómodo · FP16
2× GTX 1660 Ti
NVIDIA12 GB · GTX 16
3.4 / 12 GBcómodo · FP16
2× RTX 2060 6GB
NVIDIA12 GB · RTX 20
3.4 / 12 GBcómodo · FP16
2× RTX 3050 6GB
NVIDIA12 GB · RTX 30
3.4 / 12 GBcómodo · FP16
2× Arc A380
Intel12 GB · Arc Alchemist
3.4 / 12 GBcómodo · FP16
Rig recomendado
2× GTX 1650
Qwen2.5 1.5B with Ubuntu, vLLM, Open WebUI and the model already downloaded.
Modelos similares
Estimaciones VRAM: parámetros x bits/8 más margen. El rendimiento real varía según motor, contexto y batch.
sync: 2026-05-12