GLM9B params128k contestopopolare
GLM-4 9B in locale
GLM-4 9B è un LLM open-weight della famiglia GLM, con 9B parametri. Uso principale: chat, RAG and general assistance. Hardware minimo rilevato: GTX 1060 6GB (6 GB).
Scheda tecnica
Parametri9B
Contesto massimo128k
Q4_K_M5.7 GB
Q5_K_M6.9 GB
Q810.1 GB
FP1620.1 GB
FamigliaGLM
Ultima sync2026-05-12
Quantization disponibili
pesi GGUFQ4_K_M
5.7GB
Accettabile. Buon compromesso con VRAM limitata.
Q5_K_M
6.9GB
Buona qualità. Punto dolce tra dimensione e precisione.
Q8
10.1GB
Qualità quasi FP16. Comoda in produzione.
FP16
20.1GB
Precisione di riferimento. Qualità massima, più VRAM.
GPU compatibili
12 single-GPUGPU capaci di eseguire GLM-4 9B su una sola scheda, ordinate per margine VRAM.
GTX 1060 6GB
NVIDIA6 GB · GTX 10
5.7 / 6 GBstretto · Q4
GTX 1660
NVIDIA6 GB · GTX 16
5.7 / 6 GBstretto · Q4
GTX 1660 Super
NVIDIA6 GB · GTX 16
5.7 / 6 GBstretto · Q4
GTX 1660 Ti
NVIDIA6 GB · GTX 16
5.7 / 6 GBstretto · Q4
RTX 2060 6GB
NVIDIA6 GB · RTX 20
5.7 / 6 GBstretto · Q4
RTX 3050 6GB
NVIDIA6 GB · RTX 30
5.7 / 6 GBstretto · Q4
Arc A380
Intel6 GB · Arc Alchemist
5.7 / 6 GBstretto · Q4
GTX 1070
NVIDIA8 GB · GTX 10
5.7 / 8 GBcomodo · Q4
GTX 1070 Ti
NVIDIA8 GB · GTX 10
5.7 / 8 GBcomodo · Q4
GTX 1080
NVIDIA8 GB · GTX 10
5.7 / 8 GBcomodo · Q4
RTX 2060 Super
NVIDIA8 GB · RTX 20
5.7 / 8 GBcomodo · Q4
RTX 2070
NVIDIA8 GB · RTX 20
5.7 / 8 GBcomodo · Q4
Rig multi-GPU consigliati
2x / 4x consumer GPUsPer GLM-4 9B con quantization più alta o più contesto, un rig multi-GPU offre più margine.
2× GTX 1650
NVIDIA8 GB · GTX 16
5.7 / 8 GBcomodo · Q4
2× GTX 1060 6GB
NVIDIA12 GB · GTX 10
10.1 / 12 GBcomodo · Q8
2× GTX 1660
NVIDIA12 GB · GTX 16
10.1 / 12 GBcomodo · Q8
2× GTX 1660 Super
NVIDIA12 GB · GTX 16
10.1 / 12 GBcomodo · Q8
2× GTX 1660 Ti
NVIDIA12 GB · GTX 16
10.1 / 12 GBcomodo · Q8
2× RTX 2060 6GB
NVIDIA12 GB · RTX 20
10.1 / 12 GBcomodo · Q8
2× RTX 3050 6GB
NVIDIA12 GB · RTX 30
10.1 / 12 GBcomodo · Q8
2× Arc A380
Intel12 GB · Arc Alchemist
10.1 / 12 GBcomodo · Q8
Rig consigliato
2× GTX 1650
GLM-4 9B with Ubuntu, vLLM, Open WebUI and the model already downloaded.
Modelli simili
Stime VRAM: parametri x bits/8 più margine. Prestazioni reali secondo engine, contesto e batch.
sync: 2026-05-12