NVIDIAdata centerHopper

NVIDIA H200 141GB pour l'IA locale

Le NVIDIA H200 141GB est un GPU data center (141 GB de VRAM) destiné aux serveurs et infrastructures cloud. Sur les 242 modèles open source de notre catalogue, 229 tournent confortablement dessus en mono-carte.

VRAM
141GB
Catégorie
Datacenter
Série
Hopper
Vendor
NVIDIA

Modèles qui tournent confortablement

Ces modèles tiennent dans 141GB avec marge pour le contexte long et l'inférence stable. Triés du plus gros au plus petit.

Falcon 180Bfalcon113.2 GBcompatibleQ4 · / 141 GB
Mixtral 8x22Bmistral · MoE108.3 GBcompatibleQ5 · / 141 GB
Mistral Large 123Bmistral94.5 GBcompatibleQ5 · / 141 GB
NVIDIA Nemotron 3 Super 120B A12B BF16nemotron92.2 GBcompatibleQ5 · / 141 GB
Llama 4 Scout 17Bx16llama · MoE83.7 GBcompatibleQ5 · / 141 GB
Command R+ 104Bcommand116.2 GBcompatibleQ8 · / 141 GB
Qwen3 Next 80B A3B Instructqwen89.4 GBcompatibleQ8 · / 141 GB
Qwen 2.5 72Bqwen80.5 GBcompatibleQ8 · / 141 GB
Qwen 2.5 VL 72Bqwen80.5 GBcompatibleQ8 · / 141 GB
Qwen2.5 72B Instructqwen80.5 GBcompatibleQ8 · / 141 GB
Llama 2 70Bllama78.2 GBcompatibleQ8 · / 141 GB
Llama 3 70Bllama78.2 GBcompatibleQ8 · / 141 GB
Llama 3.1 70Bllama78.2 GBcompatibleQ8 · / 141 GB
Llama 3.3 70Bllama78.2 GBcompatibleQ8 · / 141 GB
CodeLlama 70Bcodellama78.2 GBcompatibleQ8 · / 141 GB
DeepSeek R1 Distill 70Bdeepseek78.2 GBcompatibleQ8 · / 141 GB
Hermes 3 70Bhermes78.2 GBcompatibleQ8 · / 141 GB
Llama 3.1 Nemotron 70Bnemotron78.2 GBcompatibleQ8 · / 141 GB
Athene 70Bathene78.2 GBcompatibleQ8 · / 141 GB
Llama 3.3 70B Instructllama78.2 GBcompatibleQ8 · / 141 GB
Llama 3.1 70B Instructllama78.2 GBcompatibleQ8 · / 141 GB
Mixtral 8x7Bmistral · MoE105.1 GBcompatibleFP16 · / 141 GB
Falcon 40Bfalcon89.4 GBcompatibleFP16 · / 141 GB
Command R 35Bcommand78.2 GBcompatibleFP16 · / 141 GB
Aya 23 35Baya78.2 GBcompatibleFP16 · / 141 GB
CodeLlama 34Bcodellama76.0 GBcompatibleFP16 · / 141 GB
Yi 1.5 34Byi76.0 GBcompatibleFP16 · / 141 GB
dolphin 2.9.1 yi 1.5 34byi76.0 GBcompatibleFP16 · / 141 GB
Qwen 2.5 32Bqwen71.5 GBcompatibleFP16 · / 141 GB
Qwen 2.5 Coder 32Bqwen71.5 GBcompatibleFP16 · / 141 GB

+ 199 autres — voir le calculateur complet →

Débloqués en rig 2×

Avec 2 cartes en parallèle (282 GB total), vous accédez à des modèles plus gros et à des quantizations plus hautes.

Llama 3.1 405Bllama254.6 GBserréQ4 · / 282 GB
Hermes 3 405Bhermes254.6 GBserréQ4 · / 282 GB
Llama 4 Maverick 17Bx128llama · MoE251.5 GBserréQ4 · / 282 GB
Nemotron 340Bnemotron213.7 GBcompatibleQ4 · / 282 GB
DeepSeek V2deepseek · MoE181.3 GBcompatibleQ5 · / 282 GB
DeepSeek Coder V2deepseek · MoE181.3 GBcompatibleQ5 · / 282 GB
Qwen 3 235B A22Bqwen · MoE180.6 GBcompatibleQ5 · / 282 GB
Qwen3 235B A22Bqwen180.6 GBcompatibleQ5 · / 282 GB

Débloqués en rig 4×

Configuration entreprise / serveur (564 GB total) : vous accédez aux flagships open source 70B+ et aux MoE moyens.

DeepSeek V3.2deepseek · MoE430.6 GBcompatibleQ4 · / 564 GB
DeepSeek V4 Prodeepseek · MoE430.6 GBcompatibleQ4 · / 564 GB
DeepSeek R1deepseek · MoE421.8 GBcompatibleQ4 · / 564 GB
DeepSeek V3deepseek · MoE421.8 GBcompatibleQ4 · / 564 GB
DeepSeek R1 (0528 snapshot)deepseek · MoE421.8 GBcompatibleQ4 · / 564 GB

GPUs similaires

// données mises à jour le 2026-05-12 via HuggingFace API.
// estimations VRAM : (params × bits/8) × overhead 20 %.