AMDDatacenterInstinct CDNA 1-2

Instinct MI250 für lokale KI

Instinct MI250 bietet 128 GB VRAM für lokale KI. Im LocalIA-Katalog laufen 228 von 242 Modellen komfortabel auf einer Karte.

VRAM
128GB
Kategorie
Datacenter
Serie
Instinct CDNA 1-2
Vendor
AMD

Modelle, die komfortabel laufen

Diese Modelle passen in 128 GB mit Reserve für Kontext und stabile Inferenz.

Mixtral 8x22Bmistral108.3 GBkomfortabelQ5 · / 128 GB
Mistral Large 123Bmistral94.5 GBkomfortabelQ5 · / 128 GB
NVIDIA Nemotron 3 Super 120B A12B BF16nemotron92.2 GBkomfortabelQ5 · / 128 GB
Llama 4 Scout 17Bx16llama83.7 GBkomfortabelQ5 · / 128 GB
Command R+ 104Bcommand79.9 GBkomfortabelQ5 · / 128 GB
Qwen3 Next 80B A3B Instructqwen89.4 GBkomfortabelQ8 · / 128 GB
Qwen 2.5 72Bqwen80.5 GBkomfortabelQ8 · / 128 GB
Qwen 2.5 VL 72Bqwen80.5 GBkomfortabelQ8 · / 128 GB
Qwen2.5 72B Instructqwen80.5 GBkomfortabelQ8 · / 128 GB
Llama 2 70Bllama78.2 GBkomfortabelQ8 · / 128 GB
Llama 3 70Bllama78.2 GBkomfortabelQ8 · / 128 GB
Llama 3.1 70Bllama78.2 GBkomfortabelQ8 · / 128 GB
Llama 3.3 70Bllama78.2 GBkomfortabelQ8 · / 128 GB
CodeLlama 70Bcodellama78.2 GBkomfortabelQ8 · / 128 GB
DeepSeek R1 Distill 70Bdeepseek78.2 GBkomfortabelQ8 · / 128 GB
Hermes 3 70Bhermes78.2 GBkomfortabelQ8 · / 128 GB
Llama 3.1 Nemotron 70Bnemotron78.2 GBkomfortabelQ8 · / 128 GB
Athene 70Bathene78.2 GBkomfortabelQ8 · / 128 GB
Llama 3.3 70B Instructllama78.2 GBkomfortabelQ8 · / 128 GB
Llama 3.1 70B Instructllama78.2 GBkomfortabelQ8 · / 128 GB
Mixtral 8x7Bmistral105.1 GBkomfortabelFP16 · / 128 GB
Falcon 40Bfalcon89.4 GBkomfortabelFP16 · / 128 GB
Command R 35Bcommand78.2 GBkomfortabelFP16 · / 128 GB
Aya 23 35Baya78.2 GBkomfortabelFP16 · / 128 GB
CodeLlama 34Bcodellama76.0 GBkomfortabelFP16 · / 128 GB
Yi 1.5 34Byi76.0 GBkomfortabelFP16 · / 128 GB
dolphin 2.9.1 yi 1.5 34byi76.0 GBkomfortabelFP16 · / 128 GB
Qwen 2.5 32Bqwen71.5 GBkomfortabelFP16 · / 128 GB
Qwen 2.5 Coder 32Bqwen71.5 GBkomfortabelFP16 · / 128 GB
Qwen 3 32Bqwen71.5 GBkomfortabelFP16 · / 128 GB

Knappe Modelle

Diese Modelle passen gerade so. Sie laufen, aber Kontext und Geschwindigkeit sind begrenzt.

Falcon 180Bfalcon113.2 GBknappQ4 · / 128 GB

Freigeschaltet im 2x-Rig

Mit zwei Karten parallel (256 GB gesamt) werden größere Modelle erreichbar.

Llama 3.1 405Bllama254.6 GBknappQ4 · / 256 GB
Hermes 3 405Bhermes254.6 GBknappQ4 · / 256 GB
Llama 4 Maverick 17Bx128llama251.5 GBknappQ4 · / 256 GB
Nemotron 340Bnemotron213.7 GBkomfortabelQ4 · / 256 GB
DeepSeek V2deepseek181.3 GBkomfortabelQ5 · / 256 GB
DeepSeek Coder V2deepseek181.3 GBkomfortabelQ5 · / 256 GB
Qwen 3 235B A22Bqwen180.6 GBkomfortabelQ5 · / 256 GB
Qwen3 235B A22Bqwen180.6 GBkomfortabelQ5 · / 256 GB

Freigeschaltet im 4x-Rig

Server-Konfiguration (512 GB gesamt) für sehr große Open-Weight-Modelle.

DeepSeek V3.2deepseek430.6 GBkomfortabelQ4 · / 512 GB
DeepSeek V4 Prodeepseek430.6 GBkomfortabelQ4 · / 512 GB
DeepSeek R1deepseek421.8 GBkomfortabelQ4 · / 512 GB
DeepSeek V3deepseek421.8 GBkomfortabelQ4 · / 512 GB
DeepSeek R1 (0528 snapshot)deepseek421.8 GBkomfortabelQ4 · / 512 GB

Ähnliche GPUs

VRAM-Schätzungen aktualisiert 2026-05-12.