face-à-face · GPU LLM

NVIDIA H100 80GB vs Instinct MI300X

Quel GPU pour faire tourner quel modèle en local. Comparatif sur VRAM, bande passante mémoire, consommation, et les modèles populaires que chacun peut charger en Q4 single-GPU.

80 GB
VRAM NVIDIA H100 80GB
192 GB
VRAM Instinct MI300X
2039 GB/s
BW NVIDIA H100 80GB
5300 GB/s
BW Instinct MI300X
▲ Specs côte à côte

Les chiffres bruts.

NVIDIA · Hopper · datacenter

NVIDIA H100 80GB

  • VRAM80 GB
  • Bande passante mémoire2039 GB/s
  • TDP nominal350 W
  • Catégoriedatacenter
  • Mémoire unifiéenon
→ Fiche NVIDIA H100 80GB
AMD · Instinct CDNA 3+ · datacenter

Instinct MI300X

  • VRAM192 GB
  • Bande passante mémoire5300 GB/s
  • TDP nominal750 W
  • Catégoriedatacenter
  • Mémoire unifiéenon
→ Fiche Instinct MI300X
▲ Modèles compatibles en Q4 single-GPU

Qui peut faire tourner quoi.

Liste des modèles populaires (Llama 70B, Qwen 72B, Mistral Large…) qui passent en VRAM single-GPU en quantization Q4. Pour les multi-GPU ou les quants moins agressifs, ouvrir le calculateur.

★ = exclusivité (ne tourne pas sur l'autre GPU en single-GPU Q4)

▲ Verdict

Ce que les chiffres disent.

Instinct MI300X a 112 GB de VRAM en plus, ce qui débloque 0 modèle au-dessus du seuil 80 GB. Côté débit, Instinct MI300X a 5300 GB/s contre 2039 GB/s pour NVIDIA H100 80GB — soit ~160% plus de tok/s en inférence quantization-bound. Consommation : NVIDIA H100 80GB 350 W vs Instinct MI300X 750 W — écart significatif pour le coût énergétique long terme.

Choisir NVIDIA H100 80GB

Tu veux un meilleur rapport perf/€, ou tu en mets plusieurs dans ton rig pour scaler.

→ Fiche NVIDIA H100 80GB
Choisir Instinct MI300X

Tu veux pouvoir charger des modèles plus gros (70B+ en single GPU) sans tensor parallelism.

→ Fiche Instinct MI300X

Affiner avec ton vrai use case ?

Le calculateur estime tok/s, €/Mtok et break-even cloud pour ces GPUs avec le modèle de ton choix.