face-à-face · GPU LLM

NVIDIA H100 80GB vs RTX Pro 6000 Blackwell

Quel GPU pour faire tourner quel modèle en local. Comparatif sur VRAM, bande passante mémoire, consommation, et les modèles populaires que chacun peut charger en Q4 single-GPU.

80 GB
VRAM NVIDIA H100 80GB
96 GB
VRAM RTX Pro 6000 Blackwell
2039 GB/s
BW NVIDIA H100 80GB
BW RTX Pro 6000 Blackwell
▲ Specs côte à côte

Les chiffres bruts.

NVIDIA · Hopper · datacenter

NVIDIA H100 80GB

  • VRAM80 GB
  • Bande passante mémoire2039 GB/s
  • TDP nominal350 W
  • Catégoriedatacenter
  • Mémoire unifiéenon
→ Fiche NVIDIA H100 80GB
NVIDIA · RTX Pro Blackwell · pro

RTX Pro 6000 Blackwell

  • VRAM96 GB
  • Bande passante mémoire
  • TDP nominal
  • Catégoriepro
  • Mémoire unifiéenon
→ Fiche RTX Pro 6000 Blackwell
▲ Modèles compatibles en Q4 single-GPU

Qui peut faire tourner quoi.

Liste des modèles populaires (Llama 70B, Qwen 72B, Mistral Large…) qui passent en VRAM single-GPU en quantization Q4. Pour les multi-GPU ou les quants moins agressifs, ouvrir le calculateur.

★ = exclusivité (ne tourne pas sur l'autre GPU en single-GPU Q4)

▲ Verdict

Ce que les chiffres disent.

RTX Pro 6000 Blackwell a 16 GB de VRAM en plus, ce qui débloque 0 modèle au-dessus du seuil 80 GB.

Choisir NVIDIA H100 80GB

Tu vises du serveur 24/7, multi-tenant, avec FP8 / sparsity hardware et NVLink à pleine vitesse.

→ Fiche NVIDIA H100 80GB

Affiner avec ton vrai use case ?

Le calculateur estime tok/s, €/Mtok et break-even cloud pour ces GPUs avec le modèle de ton choix.