NVIDIADatacenterHopper
NVIDIA H100 NVL per IA locale
NVIDIA H100 NVL offre 94 GB di VRAM per IA locale. Nel catalogo LocalIA, 227 modelli su 242 girano comodamente su una sola scheda.
VRAM
94GB
Categoria
Datacenter
Serie
Hopper
Vendor
NVIDIA
Modelli che girano comodamente
227 modelsQuesti modelli entrano in 94 GB con margine per contesto e inferenza stabile.
Modelli stretti
1 modelsQuesti modelli entrano appena. Possono girare, ma contesto e velocità saranno limitati.
Sbloccati in rig 2x
188 GBCon due schede in parallelo (188 GB totali), modelli più grandi diventano accessibili.
Sbloccati in rig 4x
376 GBConfigurazione server (376 GB totali) per i modelli open-weight più grandi.
GPU simili
Stime VRAM aggiornate 2026-05-12.