Instinct MI250 pour l'IA locale
Le Instinct MI250 est un GPU data center (128 GB de VRAM) destiné aux serveurs et infrastructures cloud. Sur les 242 modèles open source de notre catalogue, 228 tournent confortablement dessus en mono-carte.
Modèles qui tournent confortablement
228 modèles · trié VRAM ↓Ces modèles tiennent dans 128GB avec marge pour le contexte long et l'inférence stable. Triés du plus gros au plus petit.
+ 198 autres — voir le calculateur complet →
Modèles serrés (possibles mais lents)
1 modèles tendusCes modèles tiennent tout juste. Tournent mais le contexte disponible est limité, et l'inférence peut être lente si on dépasse la VRAM (offload CPU).
Débloqués en rig 2×
256 GB totalAvec 2 cartes en parallèle (256 GB total), vous accédez à des modèles plus gros et à des quantizations plus hautes.
Débloqués en rig 4×
512 GB totalConfiguration entreprise / serveur (512 GB total) : vous accédez aux flagships open source 70B+ et aux MoE moyens.
GPUs similaires
// données mises à jour le 2026-05-12 via HuggingFace API.
// estimations VRAM : (params × bits/8) × overhead 20 %.