Llama1.1B paramsbeliebt

TinyLlama 1.1B Chat lokal

TinyLlama 1.1B Chat ist ein Open-Weight-LLM aus der Familie Llama mit 1.1B Parametern. Haupteinsatz: chat, RAG and general assistance. Erkannte Mindesthardware: GTX 1650 (4 GB).

Technische Daten
Parameter1.1B
Q4_K_M0.7 GB
Q5_K_M0.8 GB
Q81.2 GB
FP162.5 GB
FamilieLlama
Letzter Sync2026-05-12

Verfügbare Quantizations

Q4_K_M
0.7GB

Akzeptabel. Guter Kompromiss bei knapper VRAM.

Q5_K_M
0.8GB

Gute Qualität. Sweet Spot aus Größe und Präzision.

Q8
1.2GB

Fast FP16-Qualität. Produktionstauglich.

FP16
2.5GB

Referenzpräzision. Maximale Qualität, doppelte VRAM.

Kompatible GPUs

GPUs, die TinyLlama 1.1B Chat auf einer einzelnen Karte ausführen können, nach VRAM-Spielraum sortiert.

Empfohlene Multi-GPU-Rigs

Für TinyLlama 1.1B Chat mit höherer Quantization oder mehr Kontext bietet ein Multi-GPU-Rig mehr Spielraum.

Empfohlener Rig

2× GTX 1650

TinyLlama 1.1B Chat with Ubuntu, vLLM, Open WebUI and the model already downloaded.

Konfigurieren

Ähnliche Modelle

VRAM-Schätzung: Parameter x bits/8 plus Reserve. Reale Leistung hängt von Engine, Kontext und Batch ab.
sync: 2026-05-12