face-à-face · GPU LLM

RTX 4090 vs RTX 5080

Quel GPU pour faire tourner quel modèle en local. Comparatif sur VRAM, bande passante mémoire, consommation, et les modèles populaires que chacun peut charger en Q4 single-GPU.

24 GB
VRAM RTX 4090
16 GB
VRAM RTX 5080
1008 GB/s
BW RTX 4090
960 GB/s
BW RTX 5080
▲ Specs côte à côte

Les chiffres bruts.

NVIDIA · RTX 40 · consumer

RTX 4090

  • VRAM24 GB
  • Bande passante mémoire1008 GB/s
  • TDP nominal450 W
  • Catégorieconsumer
  • Mémoire unifiéenon
→ Fiche RTX 4090
NVIDIA · RTX 50 · consumer

RTX 5080

  • VRAM16 GB
  • Bande passante mémoire960 GB/s
  • TDP nominal360 W
  • Catégorieconsumer
  • Mémoire unifiéenon
→ Fiche RTX 5080
▲ Modèles compatibles en Q4 single-GPU

Qui peut faire tourner quoi.

Liste des modèles populaires (Llama 70B, Qwen 72B, Mistral Large…) qui passent en VRAM single-GPU en quantization Q4. Pour les multi-GPU ou les quants moins agressifs, ouvrir le calculateur.

★ = exclusivité (ne tourne pas sur l'autre GPU en single-GPU Q4)

▲ Verdict

Ce que les chiffres disent.

RTX 4090 a 8 GB de VRAM en plus, ce qui débloque 3 modèles au-dessus du seuil 16 GB.

Choisir RTX 4090

Tu veux pouvoir charger des modèles plus gros (70B+ en single GPU) sans tensor parallelism.

→ Fiche RTX 4090
Choisir RTX 5080

Tu veux un meilleur rapport perf/€, ou tu en mets plusieurs dans ton rig pour scaler.

→ Fiche RTX 5080

Affiner avec ton vrai use case ?

Le calculateur estime tok/s, €/Mtok et break-even cloud pour ces GPUs avec le modèle de ton choix.