GLM32B params128k Kontextbeliebt

GLM-4.7 lokal

GLM-4.7 ist ein Open-Weight-LLM aus der Familie GLM mit 32B Parametern. Haupteinsatz: chat, RAG and general assistance. Erkannte Mindesthardware: TITAN RTX (24 GB).

Technische Daten
Parameter32B
Max. Kontext128k
Q4_K_M20.1 GB
Q5_K_M24.6 GB
Q835.8 GB
FP1671.5 GB
FamilieGLM
Letzter Sync2026-05-12

Verfügbare Quantizations

Q4_K_M
20.1GB

Akzeptabel. Guter Kompromiss bei knapper VRAM.

Q5_K_M
24.6GB

Gute Qualität. Sweet Spot aus Größe und Präzision.

Q8
35.8GB

Fast FP16-Qualität. Produktionstauglich.

FP16
71.5GB

Referenzpräzision. Maximale Qualität, doppelte VRAM.

Kompatible GPUs

GPUs, die GLM-4.7 auf einer einzelnen Karte ausführen können, nach VRAM-Spielraum sortiert.

Empfohlene Multi-GPU-Rigs

Für GLM-4.7 mit höherer Quantization oder mehr Kontext bietet ein Multi-GPU-Rig mehr Spielraum.

Empfohlener Rig

4× GTX 1060 6GB

GLM-4.7 with Ubuntu, vLLM, Open WebUI and the model already downloaded.

Konfigurieren

Ähnliche Modelle

VRAM-Schätzung: Parameter x bits/8 plus Reserve. Reale Leistung hängt von Engine, Kontext und Batch ab.
sync: 2026-05-12