Llama1.1B paramspopolare

TinyLlama 1.1B Chat in locale

TinyLlama 1.1B Chat è un LLM open-weight della famiglia Llama, con 1.1B parametri. Uso principale: chat, RAG and general assistance. Hardware minimo rilevato: GTX 1650 (4 GB).

Scheda tecnica
Parametri1.1B
Q4_K_M0.7 GB
Q5_K_M0.8 GB
Q81.2 GB
FP162.5 GB
FamigliaLlama
Ultima sync2026-05-12

Quantization disponibili

Q4_K_M
0.7GB

Accettabile. Buon compromesso con VRAM limitata.

Q5_K_M
0.8GB

Buona qualità. Punto dolce tra dimensione e precisione.

Q8
1.2GB

Qualità quasi FP16. Comoda in produzione.

FP16
2.5GB

Precisione di riferimento. Qualità massima, più VRAM.

GPU compatibili

GPU capaci di eseguire TinyLlama 1.1B Chat su una sola scheda, ordinate per margine VRAM.

Rig multi-GPU consigliati

Per TinyLlama 1.1B Chat con quantization più alta o più contesto, un rig multi-GPU offre più margine.

Rig consigliato

2× GTX 1650

TinyLlama 1.1B Chat with Ubuntu, vLLM, Open WebUI and the model already downloaded.

Configura

Modelli simili

Stime VRAM: parametri x bits/8 più margine. Prestazioni reali secondo engine, contesto e batch.
sync: 2026-05-12