NVIDIAWorkstationRTX Ada

RTX 5000 Ada para IA local

RTX 5000 Ada ofrece 32 GB de VRAM para IA local. En el catálogo LocalIA, 207 de 242 modelos funcionan cómodamente en una sola tarjeta.

VRAM
32GB
Categoría
Workstation
Serie
RTX Ada
Vendor
NVIDIA

Modelos que funcionan cómodamente

Estos modelos caben en 32 GB con margen para contexto e inferencia estable.

Falcon 40Bfalcon25.1 GBcómodoQ4 · / 32 GB
Command R 35Bcommand26.9 GBcómodoQ5 · / 32 GB
Aya 23 35Baya26.9 GBcómodoQ5 · / 32 GB
CodeLlama 34Bcodellama26.1 GBcómodoQ5 · / 32 GB
Yi 1.5 34Byi26.1 GBcómodoQ5 · / 32 GB
dolphin 2.9.1 yi 1.5 34byi26.1 GBcómodoQ5 · / 32 GB
Qwen 2.5 32Bqwen24.6 GBcómodoQ5 · / 32 GB
Qwen 2.5 Coder 32Bqwen24.6 GBcómodoQ5 · / 32 GB
Qwen 3 32Bqwen24.6 GBcómodoQ5 · / 32 GB
QwQ 32Bqwq24.6 GBcómodoQ5 · / 32 GB
DeepSeek R1 Distill 32Bdeepseek24.6 GBcómodoQ5 · / 32 GB
Qwen 2.5 VL 32Bqwen24.6 GBcómodoQ5 · / 32 GB
Granite 4 H-Small 32B-A9Bgranite24.6 GBcómodoQ5 · / 32 GB
GLM-4.6glm24.6 GBcómodoQ5 · / 32 GB
GLM-4.7glm24.6 GBcómodoQ5 · / 32 GB
GLM-5glm24.6 GBcómodoQ5 · / 32 GB
GLM-5.1glm24.6 GBcómodoQ5 · / 32 GB
Qwen3 32Bqwen24.6 GBcómodoQ5 · / 32 GB
Qwen2.5 Coder 32B Instructqwen24.6 GBcómodoQ5 · / 32 GB
DeepSeek R1 Distill Qwen 32Bqwen24.6 GBcómodoQ5 · / 32 GB
Qwen2.5 32B Instructqwen24.6 GBcómodoQ5 · / 32 GB
Gemma 4 31Bgemma23.8 GBcómodoQ5 · / 32 GB
Qwen 3 30B A3Bqwen23.1 GBcómodoQ5 · / 32 GB
MPT 30Bmpt23.1 GBcómodoQ5 · / 32 GB
Qwen3 Coder 30B A3B Instructqwen23.1 GBcómodoQ5 · / 32 GB
Qwen3 30B A3Bqwen23.1 GBcómodoQ5 · / 32 GB
Qwen3 30B A3B Instruct 2507qwen23.1 GBcómodoQ5 · / 32 GB
Gemma 2 27Bgemma20.7 GBcómodoQ5 · / 32 GB
Gemma 3 27Bgemma20.7 GBcómodoQ5 · / 32 GB

Modelos justos

Estos modelos caben por poco. Pueden funcionar, pero contexto y velocidad serán limitados.

Mixtral 8x7Bmistral29.5 GBjustoQ4 · / 32 GB

Desbloqueados en rig 2x

Con dos tarjetas en paralelo (64 GB total), modelos más grandes son posibles.

Qwen3 Next 80B A3B Instructqwen50.3 GBcómodoQ4 · / 64 GB
Qwen 2.5 72Bqwen45.3 GBcómodoQ4 · / 64 GB
Qwen 2.5 VL 72Bqwen45.3 GBcómodoQ4 · / 64 GB
Qwen2.5 72B Instructqwen45.3 GBcómodoQ4 · / 64 GB
Llama 2 70Bllama53.8 GBcómodoQ5 · / 64 GB
Llama 3 70Bllama53.8 GBcómodoQ5 · / 64 GB
Llama 3.1 70Bllama53.8 GBcómodoQ5 · / 64 GB
Llama 3.3 70Bllama53.8 GBcómodoQ5 · / 64 GB
CodeLlama 70Bcodellama53.8 GBcómodoQ5 · / 64 GB
DeepSeek R1 Distill 70Bdeepseek53.8 GBcómodoQ5 · / 64 GB
Hermes 3 70Bhermes53.8 GBcómodoQ5 · / 64 GB
Llama 3.1 Nemotron 70Bnemotron53.8 GBcómodoQ5 · / 64 GB
Athene 70Bathene53.8 GBcómodoQ5 · / 64 GB
Llama 3.3 70B Instructllama53.8 GBcómodoQ5 · / 64 GB
Llama 3.1 70B Instructllama53.8 GBcómodoQ5 · / 64 GB

Desbloqueados en rig 4x

Configuración servidor (128 GB total) para los modelos open-weight más grandes.

Falcon 180Bfalcon113.2 GBjustoQ4 · / 128 GB
Mixtral 8x22Bmistral108.3 GBcómodoQ5 · / 128 GB
Mistral Large 123Bmistral94.5 GBcómodoQ5 · / 128 GB
Llama 4 Scout 17Bx16llama83.7 GBcómodoQ5 · / 128 GB
Command R+ 104Bcommand79.9 GBcómodoQ5 · / 128 GB

GPUs similares

Estimaciones VRAM actualizadas 2026-05-12.