Llama1B paramspopolare
Llama 3.2 1B in locale
Llama 3.2 1B è un LLM open-weight della famiglia Llama, con 1B parametri. Uso principale: chat, RAG and general assistance. Hardware minimo rilevato: GTX 1650 (4 GB).
Scheda tecnica
Parametri1B
Q4_K_M0.6 GB
Q5_K_M0.8 GB
Q81.1 GB
FP162.2 GB
FamigliaLlama
Ultima sync2026-05-12
Quantization disponibili
pesi GGUFQ4_K_M
0.6GB
Accettabile. Buon compromesso con VRAM limitata.
Q5_K_M
0.8GB
Buona qualità. Punto dolce tra dimensione e precisione.
Q8
1.1GB
Qualità quasi FP16. Comoda in produzione.
FP16
2.2GB
Precisione di riferimento. Qualità massima, più VRAM.
GPU compatibili
12 single-GPUGPU capaci di eseguire Llama 3.2 1B su una sola scheda, ordinate per margine VRAM.
GTX 1650
NVIDIA4 GB · GTX 16
2.2 / 4 GBcomodo · FP16
GTX 1060 6GB
NVIDIA6 GB · GTX 10
2.2 / 6 GBcomodo · FP16
GTX 1660
NVIDIA6 GB · GTX 16
2.2 / 6 GBcomodo · FP16
GTX 1660 Super
NVIDIA6 GB · GTX 16
2.2 / 6 GBcomodo · FP16
GTX 1660 Ti
NVIDIA6 GB · GTX 16
2.2 / 6 GBcomodo · FP16
RTX 2060 6GB
NVIDIA6 GB · RTX 20
2.2 / 6 GBcomodo · FP16
RTX 3050 6GB
NVIDIA6 GB · RTX 30
2.2 / 6 GBcomodo · FP16
Arc A380
Intel6 GB · Arc Alchemist
2.2 / 6 GBcomodo · FP16
GTX 1070
NVIDIA8 GB · GTX 10
2.2 / 8 GBcomodo · FP16
GTX 1070 Ti
NVIDIA8 GB · GTX 10
2.2 / 8 GBcomodo · FP16
GTX 1080
NVIDIA8 GB · GTX 10
2.2 / 8 GBcomodo · FP16
RTX 2060 Super
NVIDIA8 GB · RTX 20
2.2 / 8 GBcomodo · FP16
Rig multi-GPU consigliati
2x / 4x consumer GPUsPer Llama 3.2 1B con quantization più alta o più contesto, un rig multi-GPU offre più margine.
2× GTX 1650
NVIDIA8 GB · GTX 16
2.2 / 8 GBcomodo · FP16
2× GTX 1060 6GB
NVIDIA12 GB · GTX 10
2.2 / 12 GBcomodo · FP16
2× GTX 1660
NVIDIA12 GB · GTX 16
2.2 / 12 GBcomodo · FP16
2× GTX 1660 Super
NVIDIA12 GB · GTX 16
2.2 / 12 GBcomodo · FP16
2× GTX 1660 Ti
NVIDIA12 GB · GTX 16
2.2 / 12 GBcomodo · FP16
2× RTX 2060 6GB
NVIDIA12 GB · RTX 20
2.2 / 12 GBcomodo · FP16
2× RTX 3050 6GB
NVIDIA12 GB · RTX 30
2.2 / 12 GBcomodo · FP16
2× Arc A380
Intel12 GB · Arc Alchemist
2.2 / 12 GBcomodo · FP16
Rig consigliato
2× GTX 1650
Llama 3.2 1B with Ubuntu, vLLM, Open WebUI and the model already downloaded.
Modelli simili
Stime VRAM: parametri x bits/8 più margine. Prestazioni reali secondo engine, contesto e batch.
sync: 2026-05-12