Llama1.1B paramspopulair

TinyLlama 1.1B Chat lokaal

TinyLlama 1.1B Chat is een open-weight LLM uit de Llama-familie met 1.1B parameters. Hoofdgebruik: chat, RAG and general assistance. Gedetecteerde minimumhardware: GTX 1650 (4 GB).

Technische info
Parameters1.1B
Q4_K_M0.7 GB
Q5_K_M0.8 GB
Q81.2 GB
FP162.5 GB
FamilieLlama
Laatste sync2026-05-12

Beschikbare quantizations

Q4_K_M
0.7GB

Acceptabel. Goede keuze bij beperkte VRAM.

Q5_K_M
0.8GB

Goede kwaliteit. Sweet spot voor grootte en precisie.

Q8
1.2GB

Bijna FP16-kwaliteit. Comfortabel voor productie.

FP16
2.5GB

Referentieprecisie. Maximale kwaliteit, dubbele VRAM.

Compatibele GPUs

GPUs die TinyLlama 1.1B Chat op één kaart kunnen draaien, gesorteerd op VRAM-marge.

Aanbevolen multi-GPU rigs

Voor TinyLlama 1.1B Chat met hogere quantization of meer context geeft een multi-GPU rig meer marge.

Aanbevolen rig

2× GTX 1650

TinyLlama 1.1B Chat with Ubuntu, vLLM, Open WebUI and the model already downloaded.

Configureer

Vergelijkbare modellen

VRAM-schatting: parameters x bits/8 plus marge. Echte prestaties hangen af van engine, context en batch.
sync: 2026-05-12