RTX 3090 Ti pour l'IA locale
Le RTX 3090 Ti est un GPU milieu de gamme (24 GB de VRAM) destiné aux configurations grand public et workstations. Sur les 242 modèles open source de notre catalogue, 201 tournent confortablement dessus en mono-carte.
Modèles qui tournent confortablement
201 modèles · trié VRAM ↓Ces modèles tiennent dans 24GB avec marge pour le contexte long et l'inférence stable. Triés du plus gros au plus petit.
+ 171 autres — voir le calculateur complet →
Modèles serrés (possibles mais lents)
5 modèles tendusCes modèles tiennent tout juste. Tournent mais le contexte disponible est limité, et l'inférence peut être lente si on dépasse la VRAM (offload CPU).
Débloqués en rig 2×
48 GB totalAvec 2 cartes en parallèle (48 GB total), vous accédez à des modèles plus gros et à des quantizations plus hautes.
Débloqués en rig 4×
96 GB totalConfiguration entreprise / serveur (96 GB total) : vous accédez aux flagships open source 70B+ et aux MoE moyens.
GPUs similaires
// données mises à jour le 2026-05-12 via HuggingFace API.
// estimations VRAM : (params × bits/8) × overhead 20 %.