NVIDIADatacenterHopper

NVIDIA H100 NVL für lokale KI

NVIDIA H100 NVL bietet 94 GB VRAM für lokale KI. Im LocalIA-Katalog laufen 227 von 242 Modellen komfortabel auf einer Karte.

VRAM
94GB
Kategorie
Datacenter
Serie
Hopper
Vendor
NVIDIA

Modelle, die komfortabel laufen

Diese Modelle passen in 94 GB mit Reserve für Kontext und stabile Inferenz.

Mistral Large 123Bmistral77.3 GBkomfortabelQ4 · / 94 GB
NVIDIA Nemotron 3 Super 120B A12B BF16nemotron75.4 GBkomfortabelQ4 · / 94 GB
Llama 4 Scout 17Bx16llama68.5 GBkomfortabelQ4 · / 94 GB
Command R+ 104Bcommand65.4 GBkomfortabelQ4 · / 94 GB
Qwen3 Next 80B A3B Instructqwen61.5 GBkomfortabelQ5 · / 94 GB
Qwen 2.5 72Bqwen55.3 GBkomfortabelQ5 · / 94 GB
Qwen 2.5 VL 72Bqwen55.3 GBkomfortabelQ5 · / 94 GB
Qwen2.5 72B Instructqwen55.3 GBkomfortabelQ5 · / 94 GB
Llama 2 70Bllama78.2 GBkomfortabelQ8 · / 94 GB
Llama 3 70Bllama78.2 GBkomfortabelQ8 · / 94 GB
Llama 3.1 70Bllama78.2 GBkomfortabelQ8 · / 94 GB
Llama 3.3 70Bllama78.2 GBkomfortabelQ8 · / 94 GB
CodeLlama 70Bcodellama78.2 GBkomfortabelQ8 · / 94 GB
DeepSeek R1 Distill 70Bdeepseek78.2 GBkomfortabelQ8 · / 94 GB
Hermes 3 70Bhermes78.2 GBkomfortabelQ8 · / 94 GB
Llama 3.1 Nemotron 70Bnemotron78.2 GBkomfortabelQ8 · / 94 GB
Athene 70Bathene78.2 GBkomfortabelQ8 · / 94 GB
Llama 3.3 70B Instructllama78.2 GBkomfortabelQ8 · / 94 GB
Llama 3.1 70B Instructllama78.2 GBkomfortabelQ8 · / 94 GB
Mixtral 8x7Bmistral52.5 GBkomfortabelQ8 · / 94 GB
Falcon 40Bfalcon44.7 GBkomfortabelQ8 · / 94 GB
Command R 35Bcommand78.2 GBkomfortabelFP16 · / 94 GB
Aya 23 35Baya78.2 GBkomfortabelFP16 · / 94 GB
CodeLlama 34Bcodellama76.0 GBkomfortabelFP16 · / 94 GB
Yi 1.5 34Byi76.0 GBkomfortabelFP16 · / 94 GB
dolphin 2.9.1 yi 1.5 34byi76.0 GBkomfortabelFP16 · / 94 GB
Qwen 2.5 32Bqwen71.5 GBkomfortabelFP16 · / 94 GB
Qwen 2.5 Coder 32Bqwen71.5 GBkomfortabelFP16 · / 94 GB
Qwen 3 32Bqwen71.5 GBkomfortabelFP16 · / 94 GB
QwQ 32Bqwq71.5 GBkomfortabelFP16 · / 94 GB

Knappe Modelle

Diese Modelle passen gerade so. Sie laufen, aber Kontext und Geschwindigkeit sind begrenzt.

Mixtral 8x22Bmistral88.6 GBknappQ4 · / 94 GB

Freigeschaltet im 2x-Rig

Mit zwei Karten parallel (188 GB gesamt) werden größere Modelle erreichbar.

DeepSeek V2deepseek148.4 GBkomfortabelQ4 · / 188 GB
DeepSeek Coder V2deepseek148.4 GBkomfortabelQ4 · / 188 GB
Qwen 3 235B A22Bqwen147.7 GBkomfortabelQ4 · / 188 GB
Qwen3 235B A22Bqwen147.7 GBkomfortabelQ4 · / 188 GB
Falcon 180Bfalcon138.3 GBkomfortabelQ5 · / 188 GB

Freigeschaltet im 4x-Rig

Server-Konfiguration (376 GB gesamt) für sehr große Open-Weight-Modelle.

Llama 3.1 405Bllama311.2 GBkomfortabelQ5 · / 376 GB
Hermes 3 405Bhermes311.2 GBkomfortabelQ5 · / 376 GB
Llama 4 Maverick 17Bx128llama307.3 GBkomfortabelQ5 · / 376 GB
Nemotron 340Bnemotron261.2 GBkomfortabelQ5 · / 376 GB

Ähnliche GPUs

VRAM-Schätzungen aktualisiert 2026-05-12.