NVIDIAConsumerGTX 10

GTX 1080 Ti para IA local

GTX 1080 Ti ofrece 11 GB de VRAM para IA local. En el catálogo LocalIA, 164 de 242 modelos funcionan cómodamente en una sola tarjeta.

VRAM
11GB
Categoría
Consumer
Serie
GTX 10
Vendor
NVIDIA

Modelos que funcionan cómodamente

Estos modelos caben en 11 GB con margen para contexto e inferencia estable.

Qwen 2.5 14Bqwen8.8 GBcómodoQ4 · / 11 GB
Qwen 2.5 Coder 14Bqwen8.8 GBcómodoQ4 · / 11 GB
Qwen 3 14Bqwen8.8 GBcómodoQ4 · / 11 GB
DeepSeek R1 Distill 14Bdeepseek8.8 GBcómodoQ4 · / 11 GB
Phi-3 Medium 14Bphi8.8 GBcómodoQ4 · / 11 GB
Phi-4 14Bphi8.8 GBcómodoQ4 · / 11 GB
GLM-4.5 Airglm8.8 GBcómodoQ4 · / 11 GB
Qwen2.5 14B Instructqwen8.8 GBcómodoQ4 · / 11 GB
Qwen3 14Bqwen8.8 GBcómodoQ4 · / 11 GB
Qwen2.5 Coder 14B Instructqwen8.8 GBcómodoQ4 · / 11 GB
DeepSeek R1 Distill Qwen 14Bqwen8.8 GBcómodoQ4 · / 11 GB
Llama 2 13Bllama8.2 GBcómodoQ4 · / 11 GB
CodeLlama 13Bcodellama8.2 GBcómodoQ4 · / 11 GB
OLMo 2 13Bolmo8.2 GBcómodoQ4 · / 11 GB
Vicuna 13Bvicuna8.2 GBcómodoQ4 · / 11 GB
Mistral Nemo 12Bmistral9.2 GBcómodoQ5 · / 11 GB
Gemma 3 12Bgemma9.2 GBcómodoQ5 · / 11 GB
StableLM 2 12Bstable9.2 GBcómodoQ5 · / 11 GB
Solar 10.7Bsolar8.2 GBcómodoQ5 · / 11 GB
Falcon 3 10Bfalcon7.7 GBcómodoQ5 · / 11 GB
Gemma 2 9Bgemma6.9 GBcómodoQ5 · / 11 GB
Yi 1.5 9Byi6.9 GBcómodoQ5 · / 11 GB
Qwen 3.5 9Bqwen6.9 GBcómodoQ5 · / 11 GB
GLM-4 9Bglm6.9 GBcómodoQ5 · / 11 GB
GLM-4.7 Flashglm6.9 GBcómodoQ5 · / 11 GB
GLM-4.1V 9B Thinkingglm6.9 GBcómodoQ5 · / 11 GB
NVIDIA Nemotron Nano 9Bnemotron6.9 GBcómodoQ5 · / 11 GB
gemma 2 9b itgemma6.9 GBcómodoQ5 · / 11 GB
Llama 3 8Bllama8.9 GBcómodoQ8 · / 11 GB
Llama 3.1 8Bllama8.9 GBcómodoQ8 · / 11 GB

Modelos justos

Estos modelos caben por poco. Pueden funcionar, pero contexto y velocidad serán limitados.

DeepSeek V2 Litedeepseek10.1 GBjustoQ4 · / 11 GB
DeepSeek Coder V2 Litedeepseek10.1 GBjustoQ4 · / 11 GB
StarCoder 2 15Bstarcoder9.4 GBjustoQ4 · / 11 GB
Phi-4 Reasoning Vision 15Bphi9.4 GBjustoQ4 · / 11 GB

Desbloqueados en rig 2x

Con dos tarjetas en paralelo (22 GB total), modelos más grandes son posibles.

CodeLlama 34Bcodellama21.4 GBjustoQ4 · / 22 GB
Yi 1.5 34Byi21.4 GBjustoQ4 · / 22 GB
dolphin 2.9.1 yi 1.5 34byi21.4 GBjustoQ4 · / 22 GB
Qwen 2.5 32Bqwen20.1 GBjustoQ4 · / 22 GB
Qwen 2.5 Coder 32Bqwen20.1 GBjustoQ4 · / 22 GB
Qwen 3 32Bqwen20.1 GBjustoQ4 · / 22 GB
QwQ 32Bqwq20.1 GBjustoQ4 · / 22 GB
DeepSeek R1 Distill 32Bdeepseek20.1 GBjustoQ4 · / 22 GB
Qwen 2.5 VL 32Bqwen20.1 GBjustoQ4 · / 22 GB
Granite 4 H-Small 32B-A9Bgranite20.1 GBjustoQ4 · / 22 GB
GLM-4.6glm20.1 GBjustoQ4 · / 22 GB
GLM-4.7glm20.1 GBjustoQ4 · / 22 GB
GLM-5glm20.1 GBjustoQ4 · / 22 GB
GLM-5.1glm20.1 GBjustoQ4 · / 22 GB
Qwen3 32Bqwen20.1 GBjustoQ4 · / 22 GB

Desbloqueados en rig 4x

Configuración servidor (44 GB total) para los modelos open-weight más grandes.

Mixtral 8x7Bmistral36.1 GBcómodoQ5 · / 44 GB
Falcon 40Bfalcon30.7 GBcómodoQ5 · / 44 GB
Command R 35Bcommand26.9 GBcómodoQ5 · / 44 GB
Aya 23 35Baya26.9 GBcómodoQ5 · / 44 GB

GPUs similares

Estimaciones VRAM actualizadas 2026-05-12.