face-à-face · GPU LLM

RTX 3090 vs RTX A6000

Quel GPU pour faire tourner quel modèle en local. Comparatif sur VRAM, bande passante mémoire, consommation, et les modèles populaires que chacun peut charger en Q4 single-GPU.

24 GB
VRAM RTX 3090
48 GB
VRAM RTX A6000
936 GB/s
BW RTX 3090
768 GB/s
BW RTX A6000
▲ Specs côte à côte

Les chiffres bruts.

NVIDIA · RTX 30 · consumer

RTX 3090

  • VRAM24 GB
  • Bande passante mémoire936 GB/s
  • TDP nominal350 W
  • Catégorieconsumer
  • Mémoire unifiéenon
→ Fiche RTX 3090
NVIDIA · RTX A (Ampere) · pro

RTX A6000

  • VRAM48 GB
  • Bande passante mémoire768 GB/s
  • TDP nominal300 W
  • Catégoriepro
  • Mémoire unifiéenon
→ Fiche RTX A6000
▲ Modèles compatibles en Q4 single-GPU

Qui peut faire tourner quoi.

Liste des modèles populaires (Llama 70B, Qwen 72B, Mistral Large…) qui passent en VRAM single-GPU en quantization Q4. Pour les multi-GPU ou les quants moins agressifs, ouvrir le calculateur.

★ = exclusivité (ne tourne pas sur l'autre GPU en single-GPU Q4)

▲ Verdict

Ce que les chiffres disent.

RTX A6000 a 24 GB de VRAM en plus, ce qui débloque 2 modèles au-dessus du seuil 24 GB. Côté débit, RTX 3090 a 936 GB/s contre 768 GB/s pour RTX A6000 — soit ~22% plus de tok/s en inférence quantization-bound.

Choisir RTX 3090

Tu veux un setup desktop accessible, pas de licence pro, garantie consumer standard.

→ Fiche RTX 3090
Choisir RTX A6000

Tu veux ECC, support workstation, double-precision et drivers certifiés CAD/AI.

→ Fiche RTX A6000

Affiner avec ton vrai use case ?

Le calculateur estime tok/s, €/Mtok et break-even cloud pour ces GPUs avec le modèle de ton choix.