NVIDIADatacenterAmpere DC

NVIDIA A100 80GB per IA locale

NVIDIA A100 80GB offre 80 GB di VRAM per IA locale. Nel catalogo LocalIA, 224 modelli su 242 girano comodamente su una sola scheda.

VRAM
80GB
Categoria
Datacenter
Serie
Ampere DC
Vendor
NVIDIA

Modelli che girano comodamente

Questi modelli entrano in 80 GB con margine per contesto e inferenza stabile.

Command R+ 104Bcommand65.4 GBcomodoQ4 · / 80 GB
Qwen3 Next 80B A3B Instructqwen61.5 GBcomodoQ5 · / 80 GB
Qwen 2.5 72Bqwen55.3 GBcomodoQ5 · / 80 GB
Qwen 2.5 VL 72Bqwen55.3 GBcomodoQ5 · / 80 GB
Qwen2.5 72B Instructqwen55.3 GBcomodoQ5 · / 80 GB
Llama 2 70Bllama53.8 GBcomodoQ5 · / 80 GB
Llama 3 70Bllama53.8 GBcomodoQ5 · / 80 GB
Llama 3.1 70Bllama53.8 GBcomodoQ5 · / 80 GB
Llama 3.3 70Bllama53.8 GBcomodoQ5 · / 80 GB
CodeLlama 70Bcodellama53.8 GBcomodoQ5 · / 80 GB
DeepSeek R1 Distill 70Bdeepseek53.8 GBcomodoQ5 · / 80 GB
Hermes 3 70Bhermes53.8 GBcomodoQ5 · / 80 GB
Llama 3.1 Nemotron 70Bnemotron53.8 GBcomodoQ5 · / 80 GB
Athene 70Bathene53.8 GBcomodoQ5 · / 80 GB
Llama 3.3 70B Instructllama53.8 GBcomodoQ5 · / 80 GB
Llama 3.1 70B Instructllama53.8 GBcomodoQ5 · / 80 GB
Mixtral 8x7Bmistral52.5 GBcomodoQ8 · / 80 GB
Falcon 40Bfalcon44.7 GBcomodoQ8 · / 80 GB
Command R 35Bcommand39.1 GBcomodoQ8 · / 80 GB
Aya 23 35Baya39.1 GBcomodoQ8 · / 80 GB
CodeLlama 34Bcodellama38.0 GBcomodoQ8 · / 80 GB
Yi 1.5 34Byi38.0 GBcomodoQ8 · / 80 GB
dolphin 2.9.1 yi 1.5 34byi38.0 GBcomodoQ8 · / 80 GB
Qwen 2.5 32Bqwen35.8 GBcomodoQ8 · / 80 GB
Qwen 2.5 Coder 32Bqwen35.8 GBcomodoQ8 · / 80 GB
Qwen 3 32Bqwen35.8 GBcomodoQ8 · / 80 GB
QwQ 32Bqwq35.8 GBcomodoQ8 · / 80 GB
DeepSeek R1 Distill 32Bdeepseek35.8 GBcomodoQ8 · / 80 GB
Qwen 2.5 VL 32Bqwen35.8 GBcomodoQ8 · / 80 GB
Granite 4 H-Small 32B-A9Bgranite35.8 GBcomodoQ8 · / 80 GB

Modelli stretti

Questi modelli entrano appena. Possono girare, ma contesto e velocità saranno limitati.

Mistral Large 123Bmistral77.3 GBstrettoQ4 · / 80 GB
Llama 4 Scout 17Bx16llama68.5 GBstrettoQ4 · / 80 GB

Sbloccati in rig 2x

Con due schede in parallelo (160 GB totali), modelli più grandi diventano accessibili.

DeepSeek V2deepseek148.4 GBstrettoQ4 · / 160 GB
DeepSeek Coder V2deepseek148.4 GBstrettoQ4 · / 160 GB
Qwen 3 235B A22Bqwen147.7 GBstrettoQ4 · / 160 GB
Qwen3 235B A22Bqwen147.7 GBstrettoQ4 · / 160 GB
Falcon 180Bfalcon113.2 GBcomodoQ4 · / 160 GB
Mixtral 8x22Bmistral108.3 GBcomodoQ5 · / 160 GB

Sbloccati in rig 4x

Configurazione server (320 GB totali) per i modelli open-weight più grandi.

Llama 3.1 405Bllama254.6 GBcomodoQ4 · / 320 GB
Hermes 3 405Bhermes254.6 GBcomodoQ4 · / 320 GB
Llama 4 Maverick 17Bx128llama251.5 GBcomodoQ4 · / 320 GB
Nemotron 340Bnemotron261.2 GBcomodoQ5 · / 320 GB

GPU simili

Stime VRAM aggiornate 2026-05-12.