face-à-face · GPU LLM

NVIDIA A100 80GB vs RTX 4090

Quel GPU pour faire tourner quel modèle en local. Comparatif sur VRAM, bande passante mémoire, consommation, et les modèles populaires que chacun peut charger en Q4 single-GPU.

80 GB
VRAM NVIDIA A100 80GB
24 GB
VRAM RTX 4090
1935 GB/s
BW NVIDIA A100 80GB
1008 GB/s
BW RTX 4090
▲ Specs côte à côte

Les chiffres bruts.

NVIDIA · Ampere DC · datacenter

NVIDIA A100 80GB

  • VRAM80 GB
  • Bande passante mémoire1935 GB/s
  • TDP nominal300 W
  • Catégoriedatacenter
  • Mémoire unifiéenon
→ Fiche NVIDIA A100 80GB
NVIDIA · RTX 40 · consumer

RTX 4090

  • VRAM24 GB
  • Bande passante mémoire1008 GB/s
  • TDP nominal450 W
  • Catégorieconsumer
  • Mémoire unifiéenon
→ Fiche RTX 4090
▲ Modèles compatibles en Q4 single-GPU

Qui peut faire tourner quoi.

Liste des modèles populaires (Llama 70B, Qwen 72B, Mistral Large…) qui passent en VRAM single-GPU en quantization Q4. Pour les multi-GPU ou les quants moins agressifs, ouvrir le calculateur.

★ = exclusivité (ne tourne pas sur l'autre GPU en single-GPU Q4)

▲ Verdict

Ce que les chiffres disent.

NVIDIA A100 80GB a 56 GB de VRAM en plus, ce qui débloque 3 modèles au-dessus du seuil 24 GB. Côté débit, NVIDIA A100 80GB a 1935 GB/s contre 1008 GB/s pour RTX 4090 — soit ~92% plus de tok/s en inférence quantization-bound. Consommation : NVIDIA A100 80GB 300 W vs RTX 4090 450 W — écart significatif pour le coût énergétique long terme.

Choisir NVIDIA A100 80GB

Tu vises du serveur 24/7, multi-tenant, avec FP8 / sparsity hardware et NVLink à pleine vitesse.

→ Fiche NVIDIA A100 80GB
Choisir RTX 4090

Tu veux un setup desktop accessible, pas de licence pro, garantie consumer standard.

→ Fiche RTX 4090

Affiner avec ton vrai use case ?

Le calculateur estime tok/s, €/Mtok et break-even cloud pour ces GPUs avec le modèle de ton choix.