NVIDIADatacenterBlackwell DC

NVIDIA GB200 (per GPU) per IA locale

NVIDIA GB200 (per GPU) offre 192 GB di VRAM per IA locale. Nel catalogo LocalIA, 233 modelli su 242 girano comodamente su una sola scheda.

VRAM
192GB
Categoria
Datacenter
Serie
Blackwell DC
Vendor
NVIDIA

Modelli che girano comodamente

Questi modelli entrano in 192 GB con margine per contesto e inferenza stabile.

DeepSeek V2deepseek148.4 GBcomodoQ4 · / 192 GB
DeepSeek Coder V2deepseek148.4 GBcomodoQ4 · / 192 GB
Qwen 3 235B A22Bqwen147.7 GBcomodoQ4 · / 192 GB
Qwen3 235B A22Bqwen147.7 GBcomodoQ4 · / 192 GB
Falcon 180Bfalcon138.3 GBcomodoQ5 · / 192 GB
Mixtral 8x22Bmistral157.6 GBcomodoQ8 · / 192 GB
Mistral Large 123Bmistral137.5 GBcomodoQ8 · / 192 GB
Llama 4 Scout 17Bx16llama121.8 GBcomodoQ8 · / 192 GB
Command R+ 104Bcommand116.2 GBcomodoQ8 · / 192 GB
Qwen3 Next 80B A3B Instructqwen89.4 GBcomodoQ8 · / 192 GB
Qwen 2.5 72Bqwen160.9 GBcomodoFP16 · / 192 GB
Qwen 2.5 VL 72Bqwen160.9 GBcomodoFP16 · / 192 GB
Qwen2.5 72B Instructqwen160.9 GBcomodoFP16 · / 192 GB
Llama 2 70Bllama156.5 GBcomodoFP16 · / 192 GB
Llama 3 70Bllama156.5 GBcomodoFP16 · / 192 GB
Llama 3.1 70Bllama156.5 GBcomodoFP16 · / 192 GB
Llama 3.3 70Bllama156.5 GBcomodoFP16 · / 192 GB
CodeLlama 70Bcodellama156.5 GBcomodoFP16 · / 192 GB
DeepSeek R1 Distill 70Bdeepseek156.5 GBcomodoFP16 · / 192 GB
Hermes 3 70Bhermes156.5 GBcomodoFP16 · / 192 GB
Llama 3.1 Nemotron 70Bnemotron156.5 GBcomodoFP16 · / 192 GB
Athene 70Bathene156.5 GBcomodoFP16 · / 192 GB
Llama 3.3 70B Instructllama156.5 GBcomodoFP16 · / 192 GB
Llama 3.1 70B Instructllama156.5 GBcomodoFP16 · / 192 GB
Mixtral 8x7Bmistral105.1 GBcomodoFP16 · / 192 GB
Falcon 40Bfalcon89.4 GBcomodoFP16 · / 192 GB
Command R 35Bcommand78.2 GBcomodoFP16 · / 192 GB
Aya 23 35Baya78.2 GBcomodoFP16 · / 192 GB
CodeLlama 34Bcodellama76.0 GBcomodoFP16 · / 192 GB

Sbloccati in rig 2x

Con due schede in parallelo (384 GB totali), modelli più grandi diventano accessibili.

Llama 3.1 405Bllama311.2 GBcomodoQ5 · / 384 GB
Hermes 3 405Bhermes311.2 GBcomodoQ5 · / 384 GB
Llama 4 Maverick 17Bx128llama307.3 GBcomodoQ5 · / 384 GB
Nemotron 340Bnemotron261.2 GBcomodoQ5 · / 384 GB

Sbloccati in rig 4x

Configurazione server (768 GB totali) per i modelli open-weight più grandi.

DeepSeek V3.2deepseek526.3 GBcomodoQ5 · / 768 GB
DeepSeek V4 Prodeepseek526.3 GBcomodoQ5 · / 768 GB
DeepSeek R1deepseek515.6 GBcomodoQ5 · / 768 GB
DeepSeek V3deepseek515.6 GBcomodoQ5 · / 768 GB
DeepSeek R1 (0528 snapshot)deepseek515.6 GBcomodoQ5 · / 768 GB

GPU simili

Stime VRAM aggiornate 2026-05-12.