NVIDIAWorkstationRTX Ada

RTX 4000 Ada für lokale KI

RTX 4000 Ada bietet 20 GB VRAM für lokale KI. Im LocalIA-Katalog laufen 179 von 242 Modellen komfortabel auf einer Karte.

VRAM
20GB
Kategorie
Workstation
Serie
RTX Ada
Vendor
NVIDIA

Modelle, die komfortabel laufen

Diese Modelle passen in 20 GB mit Reserve für Kontext und stabile Inferenz.

Gemma 2 27Bgemma17.0 GBkomfortabelQ4 · / 20 GB
Gemma 3 27Bgemma17.0 GBkomfortabelQ4 · / 20 GB
Gemma 4 26B A4Bgemma16.3 GBkomfortabelQ4 · / 20 GB
Mistral Small 3 24Bmistral15.1 GBkomfortabelQ4 · / 20 GB
Mistral Small 3.1 24Bmistral15.1 GBkomfortabelQ4 · / 20 GB
Mistral Small 3.2 24Bmistral15.1 GBkomfortabelQ4 · / 20 GB
Devstral Small 2 24Bdevstral15.1 GBkomfortabelQ4 · / 20 GB
Mistral Small 22Bmistral16.9 GBkomfortabelQ5 · / 20 GB
Codestral 22Bcodestral16.9 GBkomfortabelQ5 · / 20 GB
Reka Flash 3 21Breka16.1 GBkomfortabelQ5 · / 20 GB
InternLM 2.5 20Binternlm15.4 GBkomfortabelQ5 · / 20 GB
DeepSeek V2 Litedeepseek12.3 GBkomfortabelQ5 · / 20 GB
DeepSeek Coder V2 Litedeepseek12.3 GBkomfortabelQ5 · / 20 GB
StarCoder 2 15Bstarcoder16.8 GBkomfortabelQ8 · / 20 GB
Phi-4 Reasoning Vision 15Bphi16.8 GBkomfortabelQ8 · / 20 GB
Qwen 2.5 14Bqwen15.6 GBkomfortabelQ8 · / 20 GB
Qwen 2.5 Coder 14Bqwen15.6 GBkomfortabelQ8 · / 20 GB
Qwen 3 14Bqwen15.6 GBkomfortabelQ8 · / 20 GB
DeepSeek R1 Distill 14Bdeepseek15.6 GBkomfortabelQ8 · / 20 GB
Phi-3 Medium 14Bphi15.6 GBkomfortabelQ8 · / 20 GB
Phi-4 14Bphi15.6 GBkomfortabelQ8 · / 20 GB
GLM-4.5 Airglm15.6 GBkomfortabelQ8 · / 20 GB
Qwen2.5 14B Instructqwen15.6 GBkomfortabelQ8 · / 20 GB
Qwen3 14Bqwen15.6 GBkomfortabelQ8 · / 20 GB
Qwen2.5 Coder 14B Instructqwen15.6 GBkomfortabelQ8 · / 20 GB
DeepSeek R1 Distill Qwen 14Bqwen15.6 GBkomfortabelQ8 · / 20 GB
Llama 2 13Bllama14.5 GBkomfortabelQ8 · / 20 GB
CodeLlama 13Bcodellama14.5 GBkomfortabelQ8 · / 20 GB
OLMo 2 13Bolmo14.5 GBkomfortabelQ8 · / 20 GB
Vicuna 13Bvicuna14.5 GBkomfortabelQ8 · / 20 GB

Knappe Modelle

Diese Modelle passen gerade so. Sie laufen, aber Kontext und Geschwindigkeit sind begrenzt.

Gemma 4 31Bgemma19.5 GBknappQ4 · / 20 GB
Qwen 3 30B A3Bqwen18.9 GBknappQ4 · / 20 GB
MPT 30Bmpt18.9 GBknappQ4 · / 20 GB
Qwen3 Coder 30B A3B Instructqwen18.9 GBknappQ4 · / 20 GB
Qwen3 30B A3Bqwen18.9 GBknappQ4 · / 20 GB
Qwen3 30B A3B Instruct 2507qwen18.9 GBknappQ4 · / 20 GB

Freigeschaltet im 2x-Rig

Mit zwei Karten parallel (40 GB gesamt) werden größere Modelle erreichbar.

Mixtral 8x7Bmistral29.5 GBkomfortabelQ4 · / 40 GB
Falcon 40Bfalcon30.7 GBkomfortabelQ5 · / 40 GB
Command R 35Bcommand26.9 GBkomfortabelQ5 · / 40 GB
Aya 23 35Baya26.9 GBkomfortabelQ5 · / 40 GB
CodeLlama 34Bcodellama26.1 GBkomfortabelQ5 · / 40 GB
Yi 1.5 34Byi26.1 GBkomfortabelQ5 · / 40 GB
dolphin 2.9.1 yi 1.5 34byi26.1 GBkomfortabelQ5 · / 40 GB
Qwen 2.5 32Bqwen24.6 GBkomfortabelQ5 · / 40 GB
Qwen 2.5 Coder 32Bqwen24.6 GBkomfortabelQ5 · / 40 GB
Qwen 3 32Bqwen24.6 GBkomfortabelQ5 · / 40 GB
QwQ 32Bqwq24.6 GBkomfortabelQ5 · / 40 GB
DeepSeek R1 Distill 32Bdeepseek24.6 GBkomfortabelQ5 · / 40 GB
Qwen 2.5 VL 32Bqwen24.6 GBkomfortabelQ5 · / 40 GB
Granite 4 H-Small 32B-A9Bgranite24.6 GBkomfortabelQ5 · / 40 GB
GLM-4.6glm24.6 GBkomfortabelQ5 · / 40 GB

Freigeschaltet im 4x-Rig

Server-Konfiguration (80 GB gesamt) für sehr große Open-Weight-Modelle.

Mistral Large 123Bmistral77.3 GBknappQ4 · / 80 GB
Llama 4 Scout 17Bx16llama68.5 GBknappQ4 · / 80 GB
Command R+ 104Bcommand65.4 GBkomfortabelQ4 · / 80 GB
Qwen3 Next 80B A3B Instructqwen61.5 GBkomfortabelQ5 · / 80 GB
Qwen 2.5 72Bqwen55.3 GBkomfortabelQ5 · / 80 GB
Qwen 2.5 VL 72Bqwen55.3 GBkomfortabelQ5 · / 80 GB
Qwen2.5 72B Instructqwen55.3 GBkomfortabelQ5 · / 80 GB
Llama 2 70Bllama53.8 GBkomfortabelQ5 · / 80 GB
Llama 3 70Bllama53.8 GBkomfortabelQ5 · / 80 GB

Ähnliche GPUs

VRAM-Schätzungen aktualisiert 2026-05-12.