NVIDIAconsumerGTX 16

GTX 1660 pour l'IA locale

Le GTX 1660 est un GPU limité pour l'IA (6 GB de VRAM) destiné aux configurations grand public et workstations. Sur les 242 modèles open source de notre catalogue, 136 tournent confortablement dessus en mono-carte.

VRAM
6GB
Catégorie
Consumer
Série
GTX 16
Vendor
NVIDIA

Modèles qui tournent confortablement

Ces modèles tiennent dans 6GB avec marge pour le contexte long et l'inférence stable. Triés du plus gros au plus petit.

Llama 3 8Bllama5.0 GBcompatibleQ4 · / 6 GB
Llama 3.1 8Bllama5.0 GBcompatibleQ4 · / 6 GB
Ministral 8Bmistral5.0 GBcompatibleQ4 · / 6 GB
Qwen 3 8Bqwen5.0 GBcompatibleQ4 · / 6 GB
DeepSeek R1 Distill 8Bdeepseek5.0 GBcompatibleQ4 · / 6 GB
Aya 23 8Baya5.0 GBcompatibleQ4 · / 6 GB
Granite 3 8Bgranite5.0 GBcompatibleQ4 · / 6 GB
Hermes 3 8Bhermes5.0 GBcompatibleQ4 · / 6 GB
DeepSeek R1 Distill Llama 8Bdeepseek5.0 GBcompatibleQ4 · / 6 GB
MiniCPM 4.1 8Bminicpm5.0 GBcompatibleQ4 · / 6 GB
Qwen3 8Bqwen5.0 GBcompatibleQ4 · / 6 GB
Llama 3.1 8B Instructllama5.0 GBcompatibleQ4 · / 6 GB
Meta Llama 3 8Bllama5.0 GBcompatibleQ4 · / 6 GB
Meta Llama 3 8B Instructllama5.0 GBcompatibleQ4 · / 6 GB
Llama 3.1 8Bllama5.0 GBcompatibleQ4 · / 6 GB
DeepSeek R1 Distill Llama 8Bllama5.0 GBcompatibleQ4 · / 6 GB
Llama 3.1 8B Instructllama5.0 GBcompatibleQ4 · / 6 GB
Qwen3 8B Baseqwen5.0 GBcompatibleQ4 · / 6 GB
saiga_llama3_8bllama5.0 GBcompatibleQ4 · / 6 GB
Meta Llama 3.1 8B Instructllama5.0 GBcompatibleQ4 · / 6 GB
Phi Mini MoE 7.6Bphi · MoE4.8 GBcompatibleQ4 · / 6 GB
Llama 2 7Bllama4.4 GBcompatibleQ4 · / 6 GB
CodeLlama 7Bcodellama4.4 GBcompatibleQ4 · / 6 GB
Mistral 7Bmistral4.4 GBcompatibleQ4 · / 6 GB
Mathstral 7Bmistral4.4 GBcompatibleQ4 · / 6 GB
Qwen 2.5 7Bqwen4.4 GBcompatibleQ4 · / 6 GB
Qwen 2.5 Coder 7Bqwen4.4 GBcompatibleQ4 · / 6 GB
DeepSeek R1 Distill 7Bdeepseek4.4 GBcompatibleQ4 · / 6 GB
DeepSeek Math 7Bdeepseek4.4 GBcompatibleQ4 · / 6 GB
CodeGemma 7Bgemma4.4 GBcompatibleQ4 · / 6 GB

+ 106 autres — voir le calculateur complet →

Modèles serrés (possibles mais lents)

Ces modèles tiennent tout juste. Tournent mais le contexte disponible est limité, et l'inférence peut être lente si on dépasse la VRAM (offload CPU).

Gemma 2 9Bgemma5.7 GBserréQ4 · / 6 GB
Yi 1.5 9Byi5.7 GBserréQ4 · / 6 GB
Qwen 3.5 9Bqwen5.7 GBserréQ4 · / 6 GB
GLM-4 9Bglm5.7 GBserréQ4 · / 6 GB
GLM-4.7 Flashglm5.7 GBserréQ4 · / 6 GB
GLM-4.1V 9B Thinkingglm5.7 GBserréQ4 · / 6 GB
NVIDIA Nemotron Nano 9Bnemotron5.7 GBserréQ4 · / 6 GB
gemma 2 9b itgemma5.7 GBserréQ4 · / 6 GB

Débloqués en rig 2×

Avec 2 cartes en parallèle (12 GB total), vous accédez à des modèles plus gros et à des quantizations plus hautes.

DeepSeek V2 Litedeepseek · MoE10.1 GBcompatibleQ4 · / 12 GB
DeepSeek Coder V2 Litedeepseek · MoE10.1 GBcompatibleQ4 · / 12 GB
StarCoder 2 15Bstarcoder9.4 GBcompatibleQ4 · / 12 GB
Phi-4 Reasoning Vision 15Bphi9.4 GBcompatibleQ4 · / 12 GB
Qwen 2.5 14Bqwen8.8 GBcompatibleQ4 · / 12 GB
Qwen 2.5 Coder 14Bqwen8.8 GBcompatibleQ4 · / 12 GB
Qwen 3 14Bqwen8.8 GBcompatibleQ4 · / 12 GB
DeepSeek R1 Distill 14Bdeepseek8.8 GBcompatibleQ4 · / 12 GB
Phi-3 Medium 14Bphi8.8 GBcompatibleQ4 · / 12 GB
Phi-4 14Bphi8.8 GBcompatibleQ4 · / 12 GB
GLM-4.5 Airglm8.8 GBcompatibleQ4 · / 12 GB
Qwen2.5 14B Instructqwen8.8 GBcompatibleQ4 · / 12 GB
Qwen3 14Bqwen8.8 GBcompatibleQ4 · / 12 GB
Qwen2.5 Coder 14B Instructqwen8.8 GBcompatibleQ4 · / 12 GB
DeepSeek R1 Distill Qwen 14Bqwen8.8 GBcompatibleQ4 · / 12 GB

Débloqués en rig 4×

Configuration entreprise / serveur (24 GB total) : vous accédez aux flagships open source 70B+ et aux MoE moyens.

Command R 35Bcommand22.0 GBserréQ4 · / 24 GB
Aya 23 35Baya22.0 GBserréQ4 · / 24 GB
CodeLlama 34Bcodellama21.4 GBserréQ4 · / 24 GB
Yi 1.5 34Byi21.4 GBserréQ4 · / 24 GB
dolphin 2.9.1 yi 1.5 34byi21.4 GBserréQ4 · / 24 GB
Qwen 2.5 32Bqwen20.1 GBcompatibleQ4 · / 24 GB
Qwen 2.5 Coder 32Bqwen20.1 GBcompatibleQ4 · / 24 GB
Qwen 3 32Bqwen20.1 GBcompatibleQ4 · / 24 GB
QwQ 32Bqwq20.1 GBcompatibleQ4 · / 24 GB
DeepSeek R1 Distill 32Bdeepseek20.1 GBcompatibleQ4 · / 24 GB

GPUs similaires

// données mises à jour le 2026-05-12 via HuggingFace API.
// estimations VRAM : (params × bits/8) × overhead 20 %.