NVIDIADatacenterHopper
NVIDIA H100 NVL für lokale KI
NVIDIA H100 NVL bietet 94 GB VRAM für lokale KI. Im LocalIA-Katalog laufen 227 von 242 Modellen komfortabel auf einer Karte.
VRAM
94GB
Kategorie
Datacenter
Serie
Hopper
Vendor
NVIDIA
Modelle, die komfortabel laufen
227 modelsDiese Modelle passen in 94 GB mit Reserve für Kontext und stabile Inferenz.
Knappe Modelle
1 modelsDiese Modelle passen gerade so. Sie laufen, aber Kontext und Geschwindigkeit sind begrenzt.
Freigeschaltet im 2x-Rig
188 GBMit zwei Karten parallel (188 GB gesamt) werden größere Modelle erreichbar.
Freigeschaltet im 4x-Rig
376 GBServer-Konfiguration (376 GB gesamt) für sehr große Open-Weight-Modelle.
Ähnliche GPUs
VRAM-Schätzungen aktualisiert 2026-05-12.