QwQ32B params33k contextopopular

QwQ 32B en local

QwQ 32B es un LLM open-weight de la familia QwQ, con 32B parámetros. Uso principal: reasoning and problem solving. Hardware mínimo detectado: TITAN RTX (24 GB).

Ficha técnica
Parámetros32B
Contexto máximo33k
Q4_K_M20.1 GB
Q5_K_M24.6 GB
Q835.8 GB
FP1671.5 GB
FamiliaQwQ
Última sync2026-05-12

Quantizations disponibles

Q4_K_M
20.1GB

Aceptable. Buen compromiso si la VRAM es limitada.

Q5_K_M
24.6GB

Buena calidad. Punto dulce tamaño / precisión.

Q8
35.8GB

Calidad casi FP16. Cómodo para producción.

FP16
71.5GB

Precisión de referencia. Máxima calidad, más VRAM.

GPUs compatibles

GPUs capaces de ejecutar QwQ 32B en una sola tarjeta, ordenadas por margen de VRAM.

Rigs multi-GPU recomendados

Para QwQ 32B con quantization más alta o más contexto, un rig multi-GPU da más margen.

Rig recomendado

4× GTX 1060 6GB

QwQ 32B with Ubuntu, vLLM, Open WebUI and the model already downloaded.

Configurar

Estimaciones VRAM: parámetros x bits/8 más margen. El rendimiento real varía según motor, contexto y batch.
sync: 2026-05-12