AMDDatacenterInstinct CDNA 3+

Instinct MI300X für lokale KI

Instinct MI300X bietet 192 GB VRAM für lokale KI. Im LocalIA-Katalog laufen 233 von 242 Modellen komfortabel auf einer Karte.

VRAM
192GB
Kategorie
Datacenter
Serie
Instinct CDNA 3+
Vendor
AMD

Modelle, die komfortabel laufen

Diese Modelle passen in 192 GB mit Reserve für Kontext und stabile Inferenz.

DeepSeek V2deepseek148.4 GBkomfortabelQ4 · / 192 GB
DeepSeek Coder V2deepseek148.4 GBkomfortabelQ4 · / 192 GB
Qwen 3 235B A22Bqwen147.7 GBkomfortabelQ4 · / 192 GB
Qwen3 235B A22Bqwen147.7 GBkomfortabelQ4 · / 192 GB
Falcon 180Bfalcon138.3 GBkomfortabelQ5 · / 192 GB
Mixtral 8x22Bmistral157.6 GBkomfortabelQ8 · / 192 GB
Mistral Large 123Bmistral137.5 GBkomfortabelQ8 · / 192 GB
NVIDIA Nemotron 3 Super 120B A12B BF16nemotron134.1 GBkomfortabelQ8 · / 192 GB
Llama 4 Scout 17Bx16llama121.8 GBkomfortabelQ8 · / 192 GB
Command R+ 104Bcommand116.2 GBkomfortabelQ8 · / 192 GB
Qwen3 Next 80B A3B Instructqwen89.4 GBkomfortabelQ8 · / 192 GB
Qwen 2.5 72Bqwen160.9 GBkomfortabelFP16 · / 192 GB
Qwen 2.5 VL 72Bqwen160.9 GBkomfortabelFP16 · / 192 GB
Qwen2.5 72B Instructqwen160.9 GBkomfortabelFP16 · / 192 GB
Llama 2 70Bllama156.5 GBkomfortabelFP16 · / 192 GB
Llama 3 70Bllama156.5 GBkomfortabelFP16 · / 192 GB
Llama 3.1 70Bllama156.5 GBkomfortabelFP16 · / 192 GB
Llama 3.3 70Bllama156.5 GBkomfortabelFP16 · / 192 GB
CodeLlama 70Bcodellama156.5 GBkomfortabelFP16 · / 192 GB
DeepSeek R1 Distill 70Bdeepseek156.5 GBkomfortabelFP16 · / 192 GB
Hermes 3 70Bhermes156.5 GBkomfortabelFP16 · / 192 GB
Llama 3.1 Nemotron 70Bnemotron156.5 GBkomfortabelFP16 · / 192 GB
Athene 70Bathene156.5 GBkomfortabelFP16 · / 192 GB
Llama 3.3 70B Instructllama156.5 GBkomfortabelFP16 · / 192 GB
Llama 3.1 70B Instructllama156.5 GBkomfortabelFP16 · / 192 GB
Mixtral 8x7Bmistral105.1 GBkomfortabelFP16 · / 192 GB
Falcon 40Bfalcon89.4 GBkomfortabelFP16 · / 192 GB
Command R 35Bcommand78.2 GBkomfortabelFP16 · / 192 GB
Aya 23 35Baya78.2 GBkomfortabelFP16 · / 192 GB
CodeLlama 34Bcodellama76.0 GBkomfortabelFP16 · / 192 GB

Freigeschaltet im 2x-Rig

Mit zwei Karten parallel (384 GB gesamt) werden größere Modelle erreichbar.

Llama 3.1 405Bllama311.2 GBkomfortabelQ5 · / 384 GB
Hermes 3 405Bhermes311.2 GBkomfortabelQ5 · / 384 GB
Llama 4 Maverick 17Bx128llama307.3 GBkomfortabelQ5 · / 384 GB
Nemotron 340Bnemotron261.2 GBkomfortabelQ5 · / 384 GB

Freigeschaltet im 4x-Rig

Server-Konfiguration (768 GB gesamt) für sehr große Open-Weight-Modelle.

DeepSeek V3.2deepseek526.3 GBkomfortabelQ5 · / 768 GB
DeepSeek V4 Prodeepseek526.3 GBkomfortabelQ5 · / 768 GB
DeepSeek R1deepseek515.6 GBkomfortabelQ5 · / 768 GB
DeepSeek V3deepseek515.6 GBkomfortabelQ5 · / 768 GB
DeepSeek R1 (0528 snapshot)deepseek515.6 GBkomfortabelQ5 · / 768 GB

Ähnliche GPUs

VRAM-Schätzungen aktualisiert 2026-05-12.