Llama13B params4k contesto

Llama 2 13B in locale

Llama 2 13B è un LLM open-weight della famiglia Llama, con 13B parametri. Uso principale: chat, RAG and general assistance. Hardware minimo rilevato: RTX 3080 10GB (10 GB).

Scheda tecnica
Parametri13B
Contesto massimo4k
Q4_K_M8.2 GB
Q5_K_M10.0 GB
Q814.5 GB
FP1629.1 GB
FamigliaLlama
Ultima sync2026-05-12

Quantization disponibili

Q4_K_M
8.2GB

Accettabile. Buon compromesso con VRAM limitata.

Q5_K_M
10.0GB

Buona qualità. Punto dolce tra dimensione e precisione.

Q8
14.5GB

Qualità quasi FP16. Comoda in produzione.

FP16
29.1GB

Precisione di riferimento. Qualità massima, più VRAM.

GPU compatibili

GPU capaci di eseguire Llama 2 13B su una sola scheda, ordinate per margine VRAM.

Rig multi-GPU consigliati

Per Llama 2 13B con quantization più alta o più contesto, un rig multi-GPU offre più margine.

Rig consigliato

2× GTX 1060 6GB

Llama 2 13B with Ubuntu, vLLM, Open WebUI and the model already downloaded.

Configura

Modelli simili

Stime VRAM: parametri x bits/8 più margine. Prestazioni reali secondo engine, contesto e batch.
sync: 2026-05-12