NVIDIAConsumerGTX 16

GTX 1650 per IA locale

GTX 1650 offre 4 GB di VRAM per IA locale. Nel catalogo LocalIA, 76 modelli su 242 girano comodamente su una sola scheda.

VRAM
4GB
Categoria
Consumer
Serie
GTX 16
Vendor
NVIDIA

Modelli che girano comodamente

Questi modelli entrano in 4 GB con margine per contesto e inferenza stabile.

Qwen 3 4Bqwen3.1 GBcomodoQ5 · / 4 GB
Gemma 3 4Bgemma3.1 GBcomodoQ5 · / 4 GB
Nemotron Mini 4Bnemotron3.1 GBcomodoQ5 · / 4 GB
Gemma 4 E4B (Efficient)gemma3.1 GBcomodoQ5 · / 4 GB
Qwen3 4B Instruct 2507qwen3.1 GBcomodoQ5 · / 4 GB
Qwen3 4Bqwen3.1 GBcomodoQ5 · / 4 GB
Qwen3 4B Baseqwen3.1 GBcomodoQ5 · / 4 GB
Qwen3 4B Thinking 2507qwen3.1 GBcomodoQ5 · / 4 GB
Phi-3 Mini 3.8Bphi2.9 GBcomodoQ5 · / 4 GB
Phi-3.5 Mini 3.8Bphi2.9 GBcomodoQ5 · / 4 GB
Phi-4 Mini 3.8Bphi2.9 GBcomodoQ5 · / 4 GB
Phi-4 Mini Instruct 3.8Bphi2.9 GBcomodoQ5 · / 4 GB
Phi Tiny MoE 3.8Bphi2.9 GBcomodoQ5 · / 4 GB
Granite 3 3B A800Mgranite2.5 GBcomodoQ5 · / 4 GB
Llama 3.2 3Bllama3.4 GBcomodoQ8 · / 4 GB
Ministral 3Bmistral3.4 GBcomodoQ8 · / 4 GB
Qwen 2.5 3Bqwen3.4 GBcomodoQ8 · / 4 GB
Falcon 3 3Bfalcon3.4 GBcomodoQ8 · / 4 GB
StarCoder 2 3Bstarcoder3.4 GBcomodoQ8 · / 4 GB
Qwen 2.5 VL 3Bqwen3.4 GBcomodoQ8 · / 4 GB
SmolLM 3 3Bsmollm3.4 GBcomodoQ8 · / 4 GB
Granite 4 Micro 3Bgranite3.4 GBcomodoQ8 · / 4 GB
Qwen2.5 3B Instructqwen3.4 GBcomodoQ8 · / 4 GB
Llama 3.2 3B Instructllama3.4 GBcomodoQ8 · / 4 GB
Llama 3.2 3Bllama3.4 GBcomodoQ8 · / 4 GB
Qwen2.5 3Bqwen3.4 GBcomodoQ8 · / 4 GB
Qwen2.5 Coder 3B Instructqwen3.4 GBcomodoQ8 · / 4 GB
Qwen2.5 Coder 3Bqwen3.4 GBcomodoQ8 · / 4 GB
Gemma 2 2Bgemma2.2 GBcomodoQ8 · / 4 GB
CodeGemma 2Bgemma2.2 GBcomodoQ8 · / 4 GB

Modelli stretti

Questi modelli entrano appena. Possono girare, ma contesto e velocità saranno limitati.

Yi 1.5 6Byi3.8 GBstrettoQ4 · / 4 GB
Phi-4 Multimodal 5.6Bphi3.5 GBstrettoQ4 · / 4 GB

Sbloccati in rig 2x

Con due schede in parallelo (8 GB totali), modelli più grandi diventano accessibili.

Mistral Nemo 12Bmistral7.5 GBstrettoQ4 · / 8 GB
Gemma 3 12Bgemma7.5 GBstrettoQ4 · / 8 GB
StableLM 2 12Bstable7.5 GBstrettoQ4 · / 8 GB
Solar 10.7Bsolar6.7 GBcomodoQ4 · / 8 GB
Falcon 3 10Bfalcon6.3 GBcomodoQ4 · / 8 GB
Gemma 2 9Bgemma5.7 GBcomodoQ4 · / 8 GB
Yi 1.5 9Byi5.7 GBcomodoQ4 · / 8 GB
Qwen 3.5 9Bqwen5.7 GBcomodoQ4 · / 8 GB
GLM-4 9Bglm5.7 GBcomodoQ4 · / 8 GB
GLM-4.7 Flashglm5.7 GBcomodoQ4 · / 8 GB
GLM-4.1V 9B Thinkingglm5.7 GBcomodoQ4 · / 8 GB
NVIDIA Nemotron Nano 9Bnemotron5.7 GBcomodoQ4 · / 8 GB
gemma 2 9b itgemma5.7 GBcomodoQ4 · / 8 GB
Llama 3 8Bllama6.1 GBcomodoQ5 · / 8 GB
Llama 3.1 8Bllama6.1 GBcomodoQ5 · / 8 GB

Sbloccati in rig 4x

Configurazione server (16 GB totali) per i modelli open-weight più grandi.

Mistral Small 3 24Bmistral15.1 GBstrettoQ4 · / 16 GB
Mistral Small 3.1 24Bmistral15.1 GBstrettoQ4 · / 16 GB
Mistral Small 3.2 24Bmistral15.1 GBstrettoQ4 · / 16 GB
Devstral Small 2 24Bdevstral15.1 GBstrettoQ4 · / 16 GB
Mistral Small 22Bmistral13.8 GBstrettoQ4 · / 16 GB
Codestral 22Bcodestral13.8 GBstrettoQ4 · / 16 GB
Reka Flash 3 21Breka13.2 GBcomodoQ4 · / 16 GB
InternLM 2.5 20Binternlm12.6 GBcomodoQ4 · / 16 GB
DeepSeek V2 Litedeepseek12.3 GBcomodoQ5 · / 16 GB
DeepSeek Coder V2 Litedeepseek12.3 GBcomodoQ5 · / 16 GB

Stime VRAM aggiornate 2026-05-12.