NVIDIADatacenterHopper
NVIDIA H100 80GB para IA local
NVIDIA H100 80GB ofrece 80 GB de VRAM para IA local. En el catálogo LocalIA, 224 de 242 modelos funcionan cómodamente en una sola tarjeta.
VRAM
80GB
Categoría
Datacenter
Serie
Hopper
Vendor
NVIDIA
Modelos que funcionan cómodamente
224 modelsEstos modelos caben en 80 GB con margen para contexto e inferencia estable.
Modelos justos
3 modelsEstos modelos caben por poco. Pueden funcionar, pero contexto y velocidad serán limitados.
Desbloqueados en rig 2x
160 GBCon dos tarjetas en paralelo (160 GB total), modelos más grandes son posibles.
Desbloqueados en rig 4x
320 GBConfiguración servidor (320 GB total) para los modelos open-weight más grandes.
GPUs similares
Estimaciones VRAM actualizadas 2026-05-12.