NVIDIADatacenterHopper

NVIDIA H200 141GB für lokale KI

NVIDIA H200 141GB bietet 141 GB VRAM für lokale KI. Im LocalIA-Katalog laufen 229 von 242 Modellen komfortabel auf einer Karte.

VRAM
141GB
Kategorie
Datacenter
Serie
Hopper
Vendor
NVIDIA

Modelle, die komfortabel laufen

Diese Modelle passen in 141 GB mit Reserve für Kontext und stabile Inferenz.

Falcon 180Bfalcon113.2 GBkomfortabelQ4 · / 141 GB
Mixtral 8x22Bmistral108.3 GBkomfortabelQ5 · / 141 GB
Mistral Large 123Bmistral94.5 GBkomfortabelQ5 · / 141 GB
NVIDIA Nemotron 3 Super 120B A12B BF16nemotron92.2 GBkomfortabelQ5 · / 141 GB
Llama 4 Scout 17Bx16llama83.7 GBkomfortabelQ5 · / 141 GB
Command R+ 104Bcommand116.2 GBkomfortabelQ8 · / 141 GB
Qwen3 Next 80B A3B Instructqwen89.4 GBkomfortabelQ8 · / 141 GB
Qwen 2.5 72Bqwen80.5 GBkomfortabelQ8 · / 141 GB
Qwen 2.5 VL 72Bqwen80.5 GBkomfortabelQ8 · / 141 GB
Qwen2.5 72B Instructqwen80.5 GBkomfortabelQ8 · / 141 GB
Llama 2 70Bllama78.2 GBkomfortabelQ8 · / 141 GB
Llama 3 70Bllama78.2 GBkomfortabelQ8 · / 141 GB
Llama 3.1 70Bllama78.2 GBkomfortabelQ8 · / 141 GB
Llama 3.3 70Bllama78.2 GBkomfortabelQ8 · / 141 GB
CodeLlama 70Bcodellama78.2 GBkomfortabelQ8 · / 141 GB
DeepSeek R1 Distill 70Bdeepseek78.2 GBkomfortabelQ8 · / 141 GB
Hermes 3 70Bhermes78.2 GBkomfortabelQ8 · / 141 GB
Llama 3.1 Nemotron 70Bnemotron78.2 GBkomfortabelQ8 · / 141 GB
Athene 70Bathene78.2 GBkomfortabelQ8 · / 141 GB
Llama 3.3 70B Instructllama78.2 GBkomfortabelQ8 · / 141 GB
Llama 3.1 70B Instructllama78.2 GBkomfortabelQ8 · / 141 GB
Mixtral 8x7Bmistral105.1 GBkomfortabelFP16 · / 141 GB
Falcon 40Bfalcon89.4 GBkomfortabelFP16 · / 141 GB
Command R 35Bcommand78.2 GBkomfortabelFP16 · / 141 GB
Aya 23 35Baya78.2 GBkomfortabelFP16 · / 141 GB
CodeLlama 34Bcodellama76.0 GBkomfortabelFP16 · / 141 GB
Yi 1.5 34Byi76.0 GBkomfortabelFP16 · / 141 GB
dolphin 2.9.1 yi 1.5 34byi76.0 GBkomfortabelFP16 · / 141 GB
Qwen 2.5 32Bqwen71.5 GBkomfortabelFP16 · / 141 GB
Qwen 2.5 Coder 32Bqwen71.5 GBkomfortabelFP16 · / 141 GB

Freigeschaltet im 2x-Rig

Mit zwei Karten parallel (282 GB gesamt) werden größere Modelle erreichbar.

Llama 3.1 405Bllama254.6 GBknappQ4 · / 282 GB
Hermes 3 405Bhermes254.6 GBknappQ4 · / 282 GB
Llama 4 Maverick 17Bx128llama251.5 GBknappQ4 · / 282 GB
Nemotron 340Bnemotron213.7 GBkomfortabelQ4 · / 282 GB
DeepSeek V2deepseek181.3 GBkomfortabelQ5 · / 282 GB
DeepSeek Coder V2deepseek181.3 GBkomfortabelQ5 · / 282 GB
Qwen 3 235B A22Bqwen180.6 GBkomfortabelQ5 · / 282 GB
Qwen3 235B A22Bqwen180.6 GBkomfortabelQ5 · / 282 GB

Freigeschaltet im 4x-Rig

Server-Konfiguration (564 GB gesamt) für sehr große Open-Weight-Modelle.

DeepSeek V3.2deepseek430.6 GBkomfortabelQ4 · / 564 GB
DeepSeek V4 Prodeepseek430.6 GBkomfortabelQ4 · / 564 GB
DeepSeek R1deepseek421.8 GBkomfortabelQ4 · / 564 GB
DeepSeek V3deepseek421.8 GBkomfortabelQ4 · / 564 GB
DeepSeek R1 (0528 snapshot)deepseek421.8 GBkomfortabelQ4 · / 564 GB

Ähnliche GPUs

VRAM-Schätzungen aktualisiert 2026-05-12.