NVIDIADatacenterHopper
NVIDIA H100 NVL para IA local
NVIDIA H100 NVL ofrece 94 GB de VRAM para IA local. En el catálogo LocalIA, 227 de 242 modelos funcionan cómodamente en una sola tarjeta.
VRAM
94GB
Categoría
Datacenter
Serie
Hopper
Vendor
NVIDIA
Modelos que funcionan cómodamente
227 modelsEstos modelos caben en 94 GB con margen para contexto e inferencia estable.
Modelos justos
1 modelsEstos modelos caben por poco. Pueden funcionar, pero contexto y velocidad serán limitados.
Desbloqueados en rig 2x
188 GBCon dos tarjetas en paralelo (188 GB total), modelos más grandes son posibles.
Desbloqueados en rig 4x
376 GBConfiguración servidor (376 GB total) para los modelos open-weight más grandes.
GPUs similares
Estimaciones VRAM actualizadas 2026-05-12.