NVIDIADatacenterHopper
NVIDIA H100 NVL voor lokale AI
NVIDIA H100 NVL biedt 94 GB VRAM voor lokale AI. In de LocalIA-catalogus draaien 227 van 242 modellen comfortabel op één kaart.
VRAM
94GB
Categorie
Datacenter
Serie
Hopper
Vendor
NVIDIA
Modellen die comfortabel draaien
227 modelsDeze modellen passen in 94 GB met marge voor context en stabiele inference.
Krappe modellen
1 modelsDeze modellen passen net. Ze kunnen draaien, maar context en snelheid zijn beperkt.
Vrijgespeeld in 2x-rig
188 GBMet twee kaarten parallel (188 GB totaal) worden grotere modellen bereikbaar.
Vrijgespeeld in 4x-rig
376 GBServerconfiguratie (376 GB totaal) voor de grootste open-weight modellen.
Vergelijkbare GPUs
VRAM-schattingen bijgewerkt 2026-05-12.