NVIDIADatacenterAmpere DC

NVIDIA A30 para IA local

NVIDIA A30 ofrece 24 GB de VRAM para IA local. En el catálogo LocalIA, 201 de 242 modelos funcionan cómodamente en una sola tarjeta.

VRAM
24GB
Categoría
Datacenter
Serie
Ampere DC
Vendor
NVIDIA

Modelos que funcionan cómodamente

Estos modelos caben en 24 GB con margen para contexto e inferencia estable.

Qwen 2.5 32Bqwen20.1 GBcómodoQ4 · / 24 GB
Qwen 2.5 Coder 32Bqwen20.1 GBcómodoQ4 · / 24 GB
Qwen 3 32Bqwen20.1 GBcómodoQ4 · / 24 GB
QwQ 32Bqwq20.1 GBcómodoQ4 · / 24 GB
DeepSeek R1 Distill 32Bdeepseek20.1 GBcómodoQ4 · / 24 GB
Qwen 2.5 VL 32Bqwen20.1 GBcómodoQ4 · / 24 GB
Granite 4 H-Small 32B-A9Bgranite20.1 GBcómodoQ4 · / 24 GB
GLM-4.6glm20.1 GBcómodoQ4 · / 24 GB
GLM-4.7glm20.1 GBcómodoQ4 · / 24 GB
GLM-5glm20.1 GBcómodoQ4 · / 24 GB
GLM-5.1glm20.1 GBcómodoQ4 · / 24 GB
Qwen3 32Bqwen20.1 GBcómodoQ4 · / 24 GB
Qwen2.5 Coder 32B Instructqwen20.1 GBcómodoQ4 · / 24 GB
DeepSeek R1 Distill Qwen 32Bqwen20.1 GBcómodoQ4 · / 24 GB
Qwen2.5 32B Instructqwen20.1 GBcómodoQ4 · / 24 GB
Gemma 4 31Bgemma19.5 GBcómodoQ4 · / 24 GB
Qwen 3 30B A3Bqwen18.9 GBcómodoQ4 · / 24 GB
MPT 30Bmpt18.9 GBcómodoQ4 · / 24 GB
Qwen3 Coder 30B A3B Instructqwen18.9 GBcómodoQ4 · / 24 GB
Qwen3 30B A3Bqwen18.9 GBcómodoQ4 · / 24 GB
Qwen3 30B A3B Instruct 2507qwen18.9 GBcómodoQ4 · / 24 GB
Gemma 2 27Bgemma17.0 GBcómodoQ4 · / 24 GB
Gemma 3 27Bgemma17.0 GBcómodoQ4 · / 24 GB
Gemma 4 26B A4Bgemma20.0 GBcómodoQ5 · / 24 GB
Mistral Small 3 24Bmistral18.4 GBcómodoQ5 · / 24 GB
Mistral Small 3.1 24Bmistral18.4 GBcómodoQ5 · / 24 GB
Mistral Small 3.2 24Bmistral18.4 GBcómodoQ5 · / 24 GB
Devstral Small 2 24Bdevstral18.4 GBcómodoQ5 · / 24 GB
Mistral Small 22Bmistral16.9 GBcómodoQ5 · / 24 GB

Modelos justos

Estos modelos caben por poco. Pueden funcionar, pero contexto y velocidad serán limitados.

Command R 35Bcommand22.0 GBjustoQ4 · / 24 GB
Aya 23 35Baya22.0 GBjustoQ4 · / 24 GB
CodeLlama 34Bcodellama21.4 GBjustoQ4 · / 24 GB
Yi 1.5 34Byi21.4 GBjustoQ4 · / 24 GB
dolphin 2.9.1 yi 1.5 34byi21.4 GBjustoQ4 · / 24 GB

Desbloqueados en rig 2x

Con dos tarjetas en paralelo (48 GB total), modelos más grandes son posibles.

Qwen 2.5 72Bqwen45.3 GBjustoQ4 · / 48 GB
Qwen 2.5 VL 72Bqwen45.3 GBjustoQ4 · / 48 GB
Qwen2.5 72B Instructqwen45.3 GBjustoQ4 · / 48 GB
Llama 2 70Bllama44.0 GBjustoQ4 · / 48 GB
Llama 3 70Bllama44.0 GBjustoQ4 · / 48 GB
Llama 3.1 70Bllama44.0 GBjustoQ4 · / 48 GB
Llama 3.3 70Bllama44.0 GBjustoQ4 · / 48 GB
CodeLlama 70Bcodellama44.0 GBjustoQ4 · / 48 GB
DeepSeek R1 Distill 70Bdeepseek44.0 GBjustoQ4 · / 48 GB
Hermes 3 70Bhermes44.0 GBjustoQ4 · / 48 GB
Llama 3.1 Nemotron 70Bnemotron44.0 GBjustoQ4 · / 48 GB
Athene 70Bathene44.0 GBjustoQ4 · / 48 GB
Llama 3.3 70B Instructllama44.0 GBjustoQ4 · / 48 GB
Llama 3.1 70B Instructllama44.0 GBjustoQ4 · / 48 GB
Mixtral 8x7Bmistral36.1 GBcómodoQ5 · / 48 GB

Desbloqueados en rig 4x

Configuración servidor (96 GB total) para los modelos open-weight más grandes.

Mixtral 8x22Bmistral88.6 GBjustoQ4 · / 96 GB
Mistral Large 123Bmistral77.3 GBcómodoQ4 · / 96 GB
Llama 4 Scout 17Bx16llama68.5 GBcómodoQ4 · / 96 GB
Command R+ 104Bcommand79.9 GBcómodoQ5 · / 96 GB
Qwen3 Next 80B A3B Instructqwen61.5 GBcómodoQ5 · / 96 GB

GPUs similares

Estimaciones VRAM actualizadas 2026-05-12.