GLM32B params128k contextpopulair
GLM-5 lokaal
GLM-5 is een open-weight LLM uit de GLM-familie met 32B parameters. Hoofdgebruik: chat, RAG and general assistance. Gedetecteerde minimumhardware: TITAN RTX (24 GB).
Technische info
Parameters32B
Max context128k
Q4_K_M20.1 GB
Q5_K_M24.6 GB
Q835.8 GB
FP1671.5 GB
FamilieGLM
Laatste sync2026-05-12
Beschikbare quantizations
GGUF-gewichtenQ4_K_M
20.1GB
Acceptabel. Goede keuze bij beperkte VRAM.
Q5_K_M
24.6GB
Goede kwaliteit. Sweet spot voor grootte en precisie.
Q8
35.8GB
Bijna FP16-kwaliteit. Comfortabel voor productie.
FP16
71.5GB
Referentieprecisie. Maximale kwaliteit, dubbele VRAM.
Compatibele GPUs
12 single-GPUGPUs die GLM-5 op één kaart kunnen draaien, gesorteerd op VRAM-marge.
TITAN RTX
NVIDIA24 GB · RTX 20
20.1 / 24 GBcomfortabel · Q4
RTX 3090
NVIDIA24 GB · RTX 30
20.1 / 24 GBcomfortabel · Q4
RTX 3090 Ti
NVIDIA24 GB · RTX 30
20.1 / 24 GBcomfortabel · Q4
RTX 4090
NVIDIA24 GB · RTX 40
20.1 / 24 GBcomfortabel · Q4
Quadro RTX 6000
NVIDIA24 GB · Quadro RTX
20.1 / 24 GBcomfortabel · Q4
RTX A5000
NVIDIA24 GB · RTX A (Ampere)
20.1 / 24 GBcomfortabel · Q4
RTX A5500
NVIDIA24 GB · RTX A (Ampere)
20.1 / 24 GBcomfortabel · Q4
RTX 4500 Ada
NVIDIA24 GB · RTX Ada
20.1 / 24 GBcomfortabel · Q4
NVIDIA A10
NVIDIA24 GB · Ampere DC
20.1 / 24 GBcomfortabel · Q4
NVIDIA A30
NVIDIA24 GB · Ampere DC
20.1 / 24 GBcomfortabel · Q4
NVIDIA L4
NVIDIA24 GB · Lovelace DC
20.1 / 24 GBcomfortabel · Q4
Radeon RX 7900 XTX
AMD24 GB · RDNA 3
20.1 / 24 GBcomfortabel · Q4
Aanbevolen multi-GPU rigs
2x / 4x consumer GPUsVoor GLM-5 met hogere quantization of meer context geeft een multi-GPU rig meer marge.
2× GTX 1080 Ti
NVIDIA22 GB · GTX 10
20.1 / 22 GBkrap · Q4
2× RTX 2080 Ti
NVIDIA22 GB · RTX 20
20.1 / 22 GBkrap · Q4
4× GTX 1060 6GB
NVIDIA24 GB · GTX 10
20.1 / 24 GBcomfortabel · Q4
4× GTX 1660
NVIDIA24 GB · GTX 16
20.1 / 24 GBcomfortabel · Q4
4× GTX 1660 Super
NVIDIA24 GB · GTX 16
20.1 / 24 GBcomfortabel · Q4
4× GTX 1660 Ti
NVIDIA24 GB · GTX 16
20.1 / 24 GBcomfortabel · Q4
4× RTX 2060 6GB
NVIDIA24 GB · RTX 20
20.1 / 24 GBcomfortabel · Q4
2× RTX 2060 12GB
NVIDIA24 GB · RTX 20
20.1 / 24 GBcomfortabel · Q4
Aanbevolen rig
4× GTX 1060 6GB
GLM-5 with Ubuntu, vLLM, Open WebUI and the model already downloaded.
Vergelijkbare modellen
VRAM-schatting: parameters x bits/8 plus marge. Echte prestaties hangen af van engine, context en batch.
sync: 2026-05-12