NVIDIAConsumerGTX 16

GTX 1660 per IA locale

GTX 1660 offre 6 GB di VRAM per IA locale. Nel catalogo LocalIA, 136 modelli su 242 girano comodamente su una sola scheda.

VRAM
6GB
Categoria
Consumer
Serie
GTX 16
Vendor
NVIDIA

Modelli che girano comodamente

Questi modelli entrano in 6 GB con margine per contesto e inferenza stabile.

Llama 3 8Bllama5.0 GBcomodoQ4 · / 6 GB
Llama 3.1 8Bllama5.0 GBcomodoQ4 · / 6 GB
Ministral 8Bmistral5.0 GBcomodoQ4 · / 6 GB
Qwen 3 8Bqwen5.0 GBcomodoQ4 · / 6 GB
DeepSeek R1 Distill 8Bdeepseek5.0 GBcomodoQ4 · / 6 GB
Aya 23 8Baya5.0 GBcomodoQ4 · / 6 GB
Granite 3 8Bgranite5.0 GBcomodoQ4 · / 6 GB
Hermes 3 8Bhermes5.0 GBcomodoQ4 · / 6 GB
DeepSeek R1 Distill Llama 8Bdeepseek5.0 GBcomodoQ4 · / 6 GB
MiniCPM 4.1 8Bminicpm5.0 GBcomodoQ4 · / 6 GB
Qwen3 8Bqwen5.0 GBcomodoQ4 · / 6 GB
Llama 3.1 8B Instructllama5.0 GBcomodoQ4 · / 6 GB
Meta Llama 3 8Bllama5.0 GBcomodoQ4 · / 6 GB
Meta Llama 3 8B Instructllama5.0 GBcomodoQ4 · / 6 GB
Llama 3.1 8Bllama5.0 GBcomodoQ4 · / 6 GB
DeepSeek R1 Distill Llama 8Bllama5.0 GBcomodoQ4 · / 6 GB
Llama 3.1 8B Instructllama5.0 GBcomodoQ4 · / 6 GB
Qwen3 8B Baseqwen5.0 GBcomodoQ4 · / 6 GB
saiga_llama3_8bllama5.0 GBcomodoQ4 · / 6 GB
Meta Llama 3.1 8B Instructllama5.0 GBcomodoQ4 · / 6 GB
Phi Mini MoE 7.6Bphi4.8 GBcomodoQ4 · / 6 GB
Llama 2 7Bllama4.4 GBcomodoQ4 · / 6 GB
CodeLlama 7Bcodellama4.4 GBcomodoQ4 · / 6 GB
Mistral 7Bmistral4.4 GBcomodoQ4 · / 6 GB
Mathstral 7Bmistral4.4 GBcomodoQ4 · / 6 GB
Qwen 2.5 7Bqwen4.4 GBcomodoQ4 · / 6 GB
Qwen 2.5 Coder 7Bqwen4.4 GBcomodoQ4 · / 6 GB
DeepSeek R1 Distill 7Bdeepseek4.4 GBcomodoQ4 · / 6 GB
DeepSeek Math 7Bdeepseek4.4 GBcomodoQ4 · / 6 GB
CodeGemma 7Bgemma4.4 GBcomodoQ4 · / 6 GB

Modelli stretti

Questi modelli entrano appena. Possono girare, ma contesto e velocità saranno limitati.

Gemma 2 9Bgemma5.7 GBstrettoQ4 · / 6 GB
Yi 1.5 9Byi5.7 GBstrettoQ4 · / 6 GB
Qwen 3.5 9Bqwen5.7 GBstrettoQ4 · / 6 GB
GLM-4 9Bglm5.7 GBstrettoQ4 · / 6 GB
GLM-4.7 Flashglm5.7 GBstrettoQ4 · / 6 GB
GLM-4.1V 9B Thinkingglm5.7 GBstrettoQ4 · / 6 GB
NVIDIA Nemotron Nano 9Bnemotron5.7 GBstrettoQ4 · / 6 GB
gemma 2 9b itgemma5.7 GBstrettoQ4 · / 6 GB

Sbloccati in rig 2x

Con due schede in parallelo (12 GB totali), modelli più grandi diventano accessibili.

DeepSeek V2 Litedeepseek10.1 GBcomodoQ4 · / 12 GB
DeepSeek Coder V2 Litedeepseek10.1 GBcomodoQ4 · / 12 GB
StarCoder 2 15Bstarcoder9.4 GBcomodoQ4 · / 12 GB
Phi-4 Reasoning Vision 15Bphi9.4 GBcomodoQ4 · / 12 GB
Qwen 2.5 14Bqwen8.8 GBcomodoQ4 · / 12 GB
Qwen 2.5 Coder 14Bqwen8.8 GBcomodoQ4 · / 12 GB
Qwen 3 14Bqwen8.8 GBcomodoQ4 · / 12 GB
DeepSeek R1 Distill 14Bdeepseek8.8 GBcomodoQ4 · / 12 GB
Phi-3 Medium 14Bphi8.8 GBcomodoQ4 · / 12 GB
Phi-4 14Bphi8.8 GBcomodoQ4 · / 12 GB
GLM-4.5 Airglm8.8 GBcomodoQ4 · / 12 GB
Qwen2.5 14B Instructqwen8.8 GBcomodoQ4 · / 12 GB
Qwen3 14Bqwen8.8 GBcomodoQ4 · / 12 GB
Qwen2.5 Coder 14B Instructqwen8.8 GBcomodoQ4 · / 12 GB
DeepSeek R1 Distill Qwen 14Bqwen8.8 GBcomodoQ4 · / 12 GB

Sbloccati in rig 4x

Configurazione server (24 GB totali) per i modelli open-weight più grandi.

Command R 35Bcommand22.0 GBstrettoQ4 · / 24 GB
Aya 23 35Baya22.0 GBstrettoQ4 · / 24 GB
CodeLlama 34Bcodellama21.4 GBstrettoQ4 · / 24 GB
Yi 1.5 34Byi21.4 GBstrettoQ4 · / 24 GB
dolphin 2.9.1 yi 1.5 34byi21.4 GBstrettoQ4 · / 24 GB
Qwen 2.5 32Bqwen20.1 GBcomodoQ4 · / 24 GB
Qwen 2.5 Coder 32Bqwen20.1 GBcomodoQ4 · / 24 GB
Qwen 3 32Bqwen20.1 GBcomodoQ4 · / 24 GB
QwQ 32Bqwq20.1 GBcomodoQ4 · / 24 GB
DeepSeek R1 Distill 32Bdeepseek20.1 GBcomodoQ4 · / 24 GB

GPU simili

Stime VRAM aggiornate 2026-05-12.