CodeLlama34B params16k contesto
CodeLlama 34B in locale
CodeLlama 34B è un LLM open-weight della famiglia CodeLlama, con 34B parametri. Uso principale: code and developer agents. Hardware minimo rilevato: TITAN RTX (24 GB).
Scheda tecnica
Parametri34B
Contesto massimo16k
Q4_K_M21.4 GB
Q5_K_M26.1 GB
Q838.0 GB
FP1676.0 GB
FamigliaCodeLlama
Ultima sync2026-05-12
Quantization disponibili
pesi GGUFQ4_K_M
21.4GB
Accettabile. Buon compromesso con VRAM limitata.
Q5_K_M
26.1GB
Buona qualità. Punto dolce tra dimensione e precisione.
Q8
38.0GB
Qualità quasi FP16. Comoda in produzione.
FP16
76.0GB
Precisione di riferimento. Qualità massima, più VRAM.
GPU compatibili
12 single-GPUGPU capaci di eseguire CodeLlama 34B su una sola scheda, ordinate per margine VRAM.
TITAN RTX
NVIDIA24 GB · RTX 20
21.4 / 24 GBstretto · Q4
RTX 3090
NVIDIA24 GB · RTX 30
21.4 / 24 GBstretto · Q4
RTX 3090 Ti
NVIDIA24 GB · RTX 30
21.4 / 24 GBstretto · Q4
RTX 4090
NVIDIA24 GB · RTX 40
21.4 / 24 GBstretto · Q4
Quadro RTX 6000
NVIDIA24 GB · Quadro RTX
21.4 / 24 GBstretto · Q4
RTX A5000
NVIDIA24 GB · RTX A (Ampere)
21.4 / 24 GBstretto · Q4
RTX A5500
NVIDIA24 GB · RTX A (Ampere)
21.4 / 24 GBstretto · Q4
RTX 4500 Ada
NVIDIA24 GB · RTX Ada
21.4 / 24 GBstretto · Q4
NVIDIA A10
NVIDIA24 GB · Ampere DC
21.4 / 24 GBstretto · Q4
NVIDIA A30
NVIDIA24 GB · Ampere DC
21.4 / 24 GBstretto · Q4
NVIDIA L4
NVIDIA24 GB · Lovelace DC
21.4 / 24 GBstretto · Q4
Radeon RX 7900 XTX
AMD24 GB · RDNA 3
21.4 / 24 GBstretto · Q4
Rig multi-GPU consigliati
2x / 4x consumer GPUsPer CodeLlama 34B con quantization più alta o più contesto, un rig multi-GPU offre più margine.
2× GTX 1080 Ti
NVIDIA22 GB · GTX 10
21.4 / 22 GBstretto · Q4
2× RTX 2080 Ti
NVIDIA22 GB · RTX 20
21.4 / 22 GBstretto · Q4
4× GTX 1060 6GB
NVIDIA24 GB · GTX 10
21.4 / 24 GBstretto · Q4
4× GTX 1660
NVIDIA24 GB · GTX 16
21.4 / 24 GBstretto · Q4
4× GTX 1660 Super
NVIDIA24 GB · GTX 16
21.4 / 24 GBstretto · Q4
4× GTX 1660 Ti
NVIDIA24 GB · GTX 16
21.4 / 24 GBstretto · Q4
4× RTX 2060 6GB
NVIDIA24 GB · RTX 20
21.4 / 24 GBstretto · Q4
2× RTX 2060 12GB
NVIDIA24 GB · RTX 20
21.4 / 24 GBstretto · Q4
Rig consigliato
2× GTX 1080 Ti
CodeLlama 34B with Ubuntu, vLLM, Open WebUI and the model already downloaded.
Modelli simili
Stime VRAM: parametri x bits/8 più margine. Prestazioni reali secondo engine, contesto e batch.
sync: 2026-05-12