GLM9B params128k contexto

GLM-4.1V 9B Thinking en local

GLM-4.1V 9B Thinking es un LLM open-weight de la familia GLM, con 9B parámetros. Uso principal: reasoning and problem solving. Hardware mínimo detectado: GTX 1060 6GB (6 GB).

Ficha técnica
Parámetros9B
Contexto máximo128k
Q4_K_M5.7 GB
Q5_K_M6.9 GB
Q810.1 GB
FP1620.1 GB
FamiliaGLM
Última sync2026-05-12

Quantizations disponibles

Q4_K_M
5.7GB

Aceptable. Buen compromiso si la VRAM es limitada.

Q5_K_M
6.9GB

Buena calidad. Punto dulce tamaño / precisión.

Q8
10.1GB

Calidad casi FP16. Cómodo para producción.

FP16
20.1GB

Precisión de referencia. Máxima calidad, más VRAM.

GPUs compatibles

GPUs capaces de ejecutar GLM-4.1V 9B Thinking en una sola tarjeta, ordenadas por margen de VRAM.

Rigs multi-GPU recomendados

Para GLM-4.1V 9B Thinking con quantization más alta o más contexto, un rig multi-GPU da más margen.

Rig recomendado

2× GTX 1650

GLM-4.1V 9B Thinking with Ubuntu, vLLM, Open WebUI and the model already downloaded.

Configurar

Modelos similares

Estimaciones VRAM: parámetros x bits/8 más margen. El rendimiento real varía según motor, contexto y batch.
sync: 2026-05-12