NVIDIADatacenterHopper

NVIDIA H100 NVL per IA locale

NVIDIA H100 NVL offre 94 GB di VRAM per IA locale. Nel catalogo LocalIA, 227 modelli su 242 girano comodamente su una sola scheda.

VRAM
94GB
Categoria
Datacenter
Serie
Hopper
Vendor
NVIDIA

Modelli che girano comodamente

Questi modelli entrano in 94 GB con margine per contesto e inferenza stabile.

Mistral Large 123Bmistral77.3 GBcomodoQ4 · / 94 GB
Llama 4 Scout 17Bx16llama68.5 GBcomodoQ4 · / 94 GB
Command R+ 104Bcommand65.4 GBcomodoQ4 · / 94 GB
Qwen3 Next 80B A3B Instructqwen61.5 GBcomodoQ5 · / 94 GB
Qwen 2.5 72Bqwen55.3 GBcomodoQ5 · / 94 GB
Qwen 2.5 VL 72Bqwen55.3 GBcomodoQ5 · / 94 GB
Qwen2.5 72B Instructqwen55.3 GBcomodoQ5 · / 94 GB
Llama 2 70Bllama78.2 GBcomodoQ8 · / 94 GB
Llama 3 70Bllama78.2 GBcomodoQ8 · / 94 GB
Llama 3.1 70Bllama78.2 GBcomodoQ8 · / 94 GB
Llama 3.3 70Bllama78.2 GBcomodoQ8 · / 94 GB
CodeLlama 70Bcodellama78.2 GBcomodoQ8 · / 94 GB
DeepSeek R1 Distill 70Bdeepseek78.2 GBcomodoQ8 · / 94 GB
Hermes 3 70Bhermes78.2 GBcomodoQ8 · / 94 GB
Llama 3.1 Nemotron 70Bnemotron78.2 GBcomodoQ8 · / 94 GB
Athene 70Bathene78.2 GBcomodoQ8 · / 94 GB
Llama 3.3 70B Instructllama78.2 GBcomodoQ8 · / 94 GB
Llama 3.1 70B Instructllama78.2 GBcomodoQ8 · / 94 GB
Mixtral 8x7Bmistral52.5 GBcomodoQ8 · / 94 GB
Falcon 40Bfalcon44.7 GBcomodoQ8 · / 94 GB
Command R 35Bcommand78.2 GBcomodoFP16 · / 94 GB
Aya 23 35Baya78.2 GBcomodoFP16 · / 94 GB
CodeLlama 34Bcodellama76.0 GBcomodoFP16 · / 94 GB
Yi 1.5 34Byi76.0 GBcomodoFP16 · / 94 GB
dolphin 2.9.1 yi 1.5 34byi76.0 GBcomodoFP16 · / 94 GB
Qwen 2.5 32Bqwen71.5 GBcomodoFP16 · / 94 GB
Qwen 2.5 Coder 32Bqwen71.5 GBcomodoFP16 · / 94 GB
Qwen 3 32Bqwen71.5 GBcomodoFP16 · / 94 GB
QwQ 32Bqwq71.5 GBcomodoFP16 · / 94 GB

Modelli stretti

Questi modelli entrano appena. Possono girare, ma contesto e velocità saranno limitati.

Mixtral 8x22Bmistral88.6 GBstrettoQ4 · / 94 GB

Sbloccati in rig 2x

Con due schede in parallelo (188 GB totali), modelli più grandi diventano accessibili.

DeepSeek V2deepseek148.4 GBcomodoQ4 · / 188 GB
DeepSeek Coder V2deepseek148.4 GBcomodoQ4 · / 188 GB
Qwen 3 235B A22Bqwen147.7 GBcomodoQ4 · / 188 GB
Qwen3 235B A22Bqwen147.7 GBcomodoQ4 · / 188 GB
Falcon 180Bfalcon138.3 GBcomodoQ5 · / 188 GB

Sbloccati in rig 4x

Configurazione server (376 GB totali) per i modelli open-weight più grandi.

Llama 3.1 405Bllama311.2 GBcomodoQ5 · / 376 GB
Hermes 3 405Bhermes311.2 GBcomodoQ5 · / 376 GB
Llama 4 Maverick 17Bx128llama307.3 GBcomodoQ5 · / 376 GB
Nemotron 340Bnemotron261.2 GBcomodoQ5 · / 376 GB

GPU simili

Stime VRAM aggiornate 2026-05-12.