CodeLlama34B params16k contesto

CodeLlama 34B in locale

CodeLlama 34B è un LLM open-weight della famiglia CodeLlama, con 34B parametri. Uso principale: code and developer agents. Hardware minimo rilevato: TITAN RTX (24 GB).

Scheda tecnica
Parametri34B
Contesto massimo16k
Q4_K_M21.4 GB
Q5_K_M26.1 GB
Q838.0 GB
FP1676.0 GB
FamigliaCodeLlama
Ultima sync2026-05-12

Quantization disponibili

Q4_K_M
21.4GB

Accettabile. Buon compromesso con VRAM limitata.

Q5_K_M
26.1GB

Buona qualità. Punto dolce tra dimensione e precisione.

Q8
38.0GB

Qualità quasi FP16. Comoda in produzione.

FP16
76.0GB

Precisione di riferimento. Qualità massima, più VRAM.

GPU compatibili

GPU capaci di eseguire CodeLlama 34B su una sola scheda, ordinate per margine VRAM.

Rig multi-GPU consigliati

Per CodeLlama 34B con quantization più alta o più contesto, un rig multi-GPU offre più margine.

Rig consigliato

2× GTX 1080 Ti

CodeLlama 34B with Ubuntu, vLLM, Open WebUI and the model already downloaded.

Configura

Modelli simili

Stime VRAM: parametri x bits/8 più margine. Prestazioni reali secondo engine, contesto e batch.
sync: 2026-05-12