NVIDIAConsumerGTX 16

GTX 1650 für lokale KI

GTX 1650 bietet 4 GB VRAM für lokale KI. Im LocalIA-Katalog laufen 76 von 242 Modellen komfortabel auf einer Karte.

VRAM
4GB
Kategorie
Consumer
Serie
GTX 16
Vendor
NVIDIA

Modelle, die komfortabel laufen

Diese Modelle passen in 4 GB mit Reserve für Kontext und stabile Inferenz.

Qwen 3 4Bqwen3.1 GBkomfortabelQ5 · / 4 GB
Gemma 3 4Bgemma3.1 GBkomfortabelQ5 · / 4 GB
Nemotron Mini 4Bnemotron3.1 GBkomfortabelQ5 · / 4 GB
Gemma 4 E4B (Efficient)gemma3.1 GBkomfortabelQ5 · / 4 GB
Qwen3 4B Instruct 2507qwen3.1 GBkomfortabelQ5 · / 4 GB
Qwen3 4Bqwen3.1 GBkomfortabelQ5 · / 4 GB
Qwen3 4B Baseqwen3.1 GBkomfortabelQ5 · / 4 GB
Qwen3 4B Thinking 2507qwen3.1 GBkomfortabelQ5 · / 4 GB
Phi-3 Mini 3.8Bphi2.9 GBkomfortabelQ5 · / 4 GB
Phi-3.5 Mini 3.8Bphi2.9 GBkomfortabelQ5 · / 4 GB
Phi-4 Mini 3.8Bphi2.9 GBkomfortabelQ5 · / 4 GB
Phi-4 Mini Instruct 3.8Bphi2.9 GBkomfortabelQ5 · / 4 GB
Phi Tiny MoE 3.8Bphi2.9 GBkomfortabelQ5 · / 4 GB
Granite 3 3B A800Mgranite2.5 GBkomfortabelQ5 · / 4 GB
Llama 3.2 3Bllama3.4 GBkomfortabelQ8 · / 4 GB
Ministral 3Bmistral3.4 GBkomfortabelQ8 · / 4 GB
Qwen 2.5 3Bqwen3.4 GBkomfortabelQ8 · / 4 GB
Falcon 3 3Bfalcon3.4 GBkomfortabelQ8 · / 4 GB
StarCoder 2 3Bstarcoder3.4 GBkomfortabelQ8 · / 4 GB
Qwen 2.5 VL 3Bqwen3.4 GBkomfortabelQ8 · / 4 GB
SmolLM 3 3Bsmollm3.4 GBkomfortabelQ8 · / 4 GB
Granite 4 Micro 3Bgranite3.4 GBkomfortabelQ8 · / 4 GB
Qwen2.5 3B Instructqwen3.4 GBkomfortabelQ8 · / 4 GB
Llama 3.2 3B Instructllama3.4 GBkomfortabelQ8 · / 4 GB
Llama 3.2 3Bllama3.4 GBkomfortabelQ8 · / 4 GB
Qwen2.5 3Bqwen3.4 GBkomfortabelQ8 · / 4 GB
Qwen2.5 Coder 3B Instructqwen3.4 GBkomfortabelQ8 · / 4 GB
Qwen2.5 Coder 3Bqwen3.4 GBkomfortabelQ8 · / 4 GB
Gemma 2 2Bgemma2.2 GBkomfortabelQ8 · / 4 GB
CodeGemma 2Bgemma2.2 GBkomfortabelQ8 · / 4 GB

Knappe Modelle

Diese Modelle passen gerade so. Sie laufen, aber Kontext und Geschwindigkeit sind begrenzt.

Yi 1.5 6Byi3.8 GBknappQ4 · / 4 GB
Phi-4 Multimodal 5.6Bphi3.5 GBknappQ4 · / 4 GB

Freigeschaltet im 2x-Rig

Mit zwei Karten parallel (8 GB gesamt) werden größere Modelle erreichbar.

Mistral Nemo 12Bmistral7.5 GBknappQ4 · / 8 GB
Gemma 3 12Bgemma7.5 GBknappQ4 · / 8 GB
StableLM 2 12Bstable7.5 GBknappQ4 · / 8 GB
Solar 10.7Bsolar6.7 GBkomfortabelQ4 · / 8 GB
Falcon 3 10Bfalcon6.3 GBkomfortabelQ4 · / 8 GB
Gemma 2 9Bgemma5.7 GBkomfortabelQ4 · / 8 GB
Yi 1.5 9Byi5.7 GBkomfortabelQ4 · / 8 GB
Qwen 3.5 9Bqwen5.7 GBkomfortabelQ4 · / 8 GB
GLM-4 9Bglm5.7 GBkomfortabelQ4 · / 8 GB
GLM-4.7 Flashglm5.7 GBkomfortabelQ4 · / 8 GB
GLM-4.1V 9B Thinkingglm5.7 GBkomfortabelQ4 · / 8 GB
NVIDIA Nemotron Nano 9Bnemotron5.7 GBkomfortabelQ4 · / 8 GB
gemma 2 9b itgemma5.7 GBkomfortabelQ4 · / 8 GB
Llama 3 8Bllama6.1 GBkomfortabelQ5 · / 8 GB
Llama 3.1 8Bllama6.1 GBkomfortabelQ5 · / 8 GB

Freigeschaltet im 4x-Rig

Server-Konfiguration (16 GB gesamt) für sehr große Open-Weight-Modelle.

Mistral Small 3 24Bmistral15.1 GBknappQ4 · / 16 GB
Mistral Small 3.1 24Bmistral15.1 GBknappQ4 · / 16 GB
Mistral Small 3.2 24Bmistral15.1 GBknappQ4 · / 16 GB
Devstral Small 2 24Bdevstral15.1 GBknappQ4 · / 16 GB
Mistral Small 22Bmistral13.8 GBknappQ4 · / 16 GB
Codestral 22Bcodestral13.8 GBknappQ4 · / 16 GB
Reka Flash 3 21Breka13.2 GBkomfortabelQ4 · / 16 GB
InternLM 2.5 20Binternlm12.6 GBkomfortabelQ4 · / 16 GB
DeepSeek V2 Litedeepseek12.3 GBkomfortabelQ5 · / 16 GB
DeepSeek Coder V2 Litedeepseek12.3 GBkomfortabelQ5 · / 16 GB

VRAM-Schätzungen aktualisiert 2026-05-12.