NVIDIAdata centerHopper

NVIDIA H100 80GB pour l'IA locale

Le NVIDIA H100 80GB est un GPU data center (80 GB de VRAM) destiné aux serveurs et infrastructures cloud. Sur les 242 modèles open source de notre catalogue, 224 tournent confortablement dessus en mono-carte.

VRAM
80GB
Catégorie
Datacenter
Série
Hopper
Vendor
NVIDIA

Modèles qui tournent confortablement

Ces modèles tiennent dans 80GB avec marge pour le contexte long et l'inférence stable. Triés du plus gros au plus petit.

Command R+ 104Bcommand65.4 GBcompatibleQ4 · / 80 GB
Qwen3 Next 80B A3B Instructqwen61.5 GBcompatibleQ5 · / 80 GB
Qwen 2.5 72Bqwen55.3 GBcompatibleQ5 · / 80 GB
Qwen 2.5 VL 72Bqwen55.3 GBcompatibleQ5 · / 80 GB
Qwen2.5 72B Instructqwen55.3 GBcompatibleQ5 · / 80 GB
Llama 2 70Bllama53.8 GBcompatibleQ5 · / 80 GB
Llama 3 70Bllama53.8 GBcompatibleQ5 · / 80 GB
Llama 3.1 70Bllama53.8 GBcompatibleQ5 · / 80 GB
Llama 3.3 70Bllama53.8 GBcompatibleQ5 · / 80 GB
CodeLlama 70Bcodellama53.8 GBcompatibleQ5 · / 80 GB
DeepSeek R1 Distill 70Bdeepseek53.8 GBcompatibleQ5 · / 80 GB
Hermes 3 70Bhermes53.8 GBcompatibleQ5 · / 80 GB
Llama 3.1 Nemotron 70Bnemotron53.8 GBcompatibleQ5 · / 80 GB
Athene 70Bathene53.8 GBcompatibleQ5 · / 80 GB
Llama 3.3 70B Instructllama53.8 GBcompatibleQ5 · / 80 GB
Llama 3.1 70B Instructllama53.8 GBcompatibleQ5 · / 80 GB
Mixtral 8x7Bmistral · MoE52.5 GBcompatibleQ8 · / 80 GB
Falcon 40Bfalcon44.7 GBcompatibleQ8 · / 80 GB
Command R 35Bcommand39.1 GBcompatibleQ8 · / 80 GB
Aya 23 35Baya39.1 GBcompatibleQ8 · / 80 GB
CodeLlama 34Bcodellama38.0 GBcompatibleQ8 · / 80 GB
Yi 1.5 34Byi38.0 GBcompatibleQ8 · / 80 GB
dolphin 2.9.1 yi 1.5 34byi38.0 GBcompatibleQ8 · / 80 GB
Qwen 2.5 32Bqwen35.8 GBcompatibleQ8 · / 80 GB
Qwen 2.5 Coder 32Bqwen35.8 GBcompatibleQ8 · / 80 GB
Qwen 3 32Bqwen35.8 GBcompatibleQ8 · / 80 GB
QwQ 32Bqwq35.8 GBcompatibleQ8 · / 80 GB
DeepSeek R1 Distill 32Bdeepseek35.8 GBcompatibleQ8 · / 80 GB
Qwen 2.5 VL 32Bqwen35.8 GBcompatibleQ8 · / 80 GB
Granite 4 H-Small 32B-A9Bgranite · MoE35.8 GBcompatibleQ8 · / 80 GB

+ 194 autres — voir le calculateur complet →

Modèles serrés (possibles mais lents)

Ces modèles tiennent tout juste. Tournent mais le contexte disponible est limité, et l'inférence peut être lente si on dépasse la VRAM (offload CPU).

Mistral Large 123Bmistral77.3 GBserréQ4 · / 80 GB
Llama 4 Scout 17Bx16llama · MoE68.5 GBserréQ4 · / 80 GB

Débloqués en rig 2×

Avec 2 cartes en parallèle (160 GB total), vous accédez à des modèles plus gros et à des quantizations plus hautes.

DeepSeek V2deepseek · MoE148.4 GBserréQ4 · / 160 GB
DeepSeek Coder V2deepseek · MoE148.4 GBserréQ4 · / 160 GB
Qwen 3 235B A22Bqwen · MoE147.7 GBserréQ4 · / 160 GB
Qwen3 235B A22Bqwen147.7 GBserréQ4 · / 160 GB
Falcon 180Bfalcon113.2 GBcompatibleQ4 · / 160 GB
Mixtral 8x22Bmistral · MoE108.3 GBcompatibleQ5 · / 160 GB

Débloqués en rig 4×

Configuration entreprise / serveur (320 GB total) : vous accédez aux flagships open source 70B+ et aux MoE moyens.

Llama 3.1 405Bllama254.6 GBcompatibleQ4 · / 320 GB
Hermes 3 405Bhermes254.6 GBcompatibleQ4 · / 320 GB
Llama 4 Maverick 17Bx128llama · MoE251.5 GBcompatibleQ4 · / 320 GB
Nemotron 340Bnemotron261.2 GBcompatibleQ5 · / 320 GB

GPUs similaires

// données mises à jour le 2026-05-12 via HuggingFace API.
// estimations VRAM : (params × bits/8) × overhead 20 %.