CodeLlama34B params16k context

CodeLlama 34B lokaal

CodeLlama 34B is een open-weight LLM uit de CodeLlama-familie met 34B parameters. Hoofdgebruik: code and developer agents. Gedetecteerde minimumhardware: TITAN RTX (24 GB).

Technische info
Parameters34B
Max context16k
Q4_K_M21.4 GB
Q5_K_M26.1 GB
Q838.0 GB
FP1676.0 GB
FamilieCodeLlama
Laatste sync2026-05-12

Beschikbare quantizations

Q4_K_M
21.4GB

Acceptabel. Goede keuze bij beperkte VRAM.

Q5_K_M
26.1GB

Goede kwaliteit. Sweet spot voor grootte en precisie.

Q8
38.0GB

Bijna FP16-kwaliteit. Comfortabel voor productie.

FP16
76.0GB

Referentieprecisie. Maximale kwaliteit, dubbele VRAM.

Compatibele GPUs

GPUs die CodeLlama 34B op één kaart kunnen draaien, gesorteerd op VRAM-marge.

Aanbevolen multi-GPU rigs

Voor CodeLlama 34B met hogere quantization of meer context geeft een multi-GPU rig meer marge.

Aanbevolen rig

2× GTX 1080 Ti

CodeLlama 34B with Ubuntu, vLLM, Open WebUI and the model already downloaded.

Configureer

Vergelijkbare modellen

VRAM-schatting: parameters x bits/8 plus marge. Echte prestaties hangen af van engine, context en batch.
sync: 2026-05-12