AMDdata centerInstinct CDNA 1-2

Instinct MI100 pour l'IA locale

Le Instinct MI100 est un GPU haut de gamme (32 GB de VRAM) destiné aux serveurs et infrastructures cloud. Sur les 242 modèles open source de notre catalogue, 207 tournent confortablement dessus en mono-carte.

VRAM
32GB
Catégorie
Datacenter
Série
Instinct CDNA 1-2
Vendor
AMD

Modèles qui tournent confortablement

Ces modèles tiennent dans 32GB avec marge pour le contexte long et l'inférence stable. Triés du plus gros au plus petit.

Falcon 40Bfalcon25.1 GBcompatibleQ4 · / 32 GB
Command R 35Bcommand26.9 GBcompatibleQ5 · / 32 GB
Aya 23 35Baya26.9 GBcompatibleQ5 · / 32 GB
CodeLlama 34Bcodellama26.1 GBcompatibleQ5 · / 32 GB
Yi 1.5 34Byi26.1 GBcompatibleQ5 · / 32 GB
dolphin 2.9.1 yi 1.5 34byi26.1 GBcompatibleQ5 · / 32 GB
Qwen 2.5 32Bqwen24.6 GBcompatibleQ5 · / 32 GB
Qwen 2.5 Coder 32Bqwen24.6 GBcompatibleQ5 · / 32 GB
Qwen 3 32Bqwen24.6 GBcompatibleQ5 · / 32 GB
QwQ 32Bqwq24.6 GBcompatibleQ5 · / 32 GB
DeepSeek R1 Distill 32Bdeepseek24.6 GBcompatibleQ5 · / 32 GB
Qwen 2.5 VL 32Bqwen24.6 GBcompatibleQ5 · / 32 GB
Granite 4 H-Small 32B-A9Bgranite · MoE24.6 GBcompatibleQ5 · / 32 GB
GLM-4.6glm24.6 GBcompatibleQ5 · / 32 GB
GLM-4.7glm24.6 GBcompatibleQ5 · / 32 GB
GLM-5glm24.6 GBcompatibleQ5 · / 32 GB
GLM-5.1glm24.6 GBcompatibleQ5 · / 32 GB
Qwen3 32Bqwen24.6 GBcompatibleQ5 · / 32 GB
Qwen2.5 Coder 32B Instructqwen24.6 GBcompatibleQ5 · / 32 GB
DeepSeek R1 Distill Qwen 32Bqwen24.6 GBcompatibleQ5 · / 32 GB
Qwen2.5 32B Instructqwen24.6 GBcompatibleQ5 · / 32 GB
Gemma 4 31Bgemma23.8 GBcompatibleQ5 · / 32 GB
Qwen 3 30B A3Bqwen · MoE23.1 GBcompatibleQ5 · / 32 GB
MPT 30Bmpt23.1 GBcompatibleQ5 · / 32 GB
Qwen3 Coder 30B A3B Instructqwen23.1 GBcompatibleQ5 · / 32 GB
Qwen3 30B A3Bqwen23.1 GBcompatibleQ5 · / 32 GB
Qwen3 30B A3B Instruct 2507qwen23.1 GBcompatibleQ5 · / 32 GB
NVIDIA Nemotron 3 Nano 30B A3B BF16nemotron23.1 GBcompatibleQ5 · / 32 GB
Gemma 2 27Bgemma20.7 GBcompatibleQ5 · / 32 GB
Gemma 3 27Bgemma20.7 GBcompatibleQ5 · / 32 GB

+ 177 autres — voir le calculateur complet →

Modèles serrés (possibles mais lents)

Ces modèles tiennent tout juste. Tournent mais le contexte disponible est limité, et l'inférence peut être lente si on dépasse la VRAM (offload CPU).

Mixtral 8x7Bmistral · MoE29.5 GBserréQ4 · / 32 GB

Débloqués en rig 2×

Avec 2 cartes en parallèle (64 GB total), vous accédez à des modèles plus gros et à des quantizations plus hautes.

Qwen3 Next 80B A3B Instructqwen50.3 GBcompatibleQ4 · / 64 GB
Qwen 2.5 72Bqwen45.3 GBcompatibleQ4 · / 64 GB
Qwen 2.5 VL 72Bqwen45.3 GBcompatibleQ4 · / 64 GB
Qwen2.5 72B Instructqwen45.3 GBcompatibleQ4 · / 64 GB
Llama 2 70Bllama53.8 GBcompatibleQ5 · / 64 GB
Llama 3 70Bllama53.8 GBcompatibleQ5 · / 64 GB
Llama 3.1 70Bllama53.8 GBcompatibleQ5 · / 64 GB
Llama 3.3 70Bllama53.8 GBcompatibleQ5 · / 64 GB
CodeLlama 70Bcodellama53.8 GBcompatibleQ5 · / 64 GB
DeepSeek R1 Distill 70Bdeepseek53.8 GBcompatibleQ5 · / 64 GB
Hermes 3 70Bhermes53.8 GBcompatibleQ5 · / 64 GB
Llama 3.1 Nemotron 70Bnemotron53.8 GBcompatibleQ5 · / 64 GB
Athene 70Bathene53.8 GBcompatibleQ5 · / 64 GB
Llama 3.3 70B Instructllama53.8 GBcompatibleQ5 · / 64 GB
Llama 3.1 70B Instructllama53.8 GBcompatibleQ5 · / 64 GB

Débloqués en rig 4×

Configuration entreprise / serveur (128 GB total) : vous accédez aux flagships open source 70B+ et aux MoE moyens.

Falcon 180Bfalcon113.2 GBserréQ4 · / 128 GB
Mixtral 8x22Bmistral · MoE108.3 GBcompatibleQ5 · / 128 GB
Mistral Large 123Bmistral94.5 GBcompatibleQ5 · / 128 GB
NVIDIA Nemotron 3 Super 120B A12B BF16nemotron92.2 GBcompatibleQ5 · / 128 GB
Llama 4 Scout 17Bx16llama · MoE83.7 GBcompatibleQ5 · / 128 GB
Command R+ 104Bcommand79.9 GBcompatibleQ5 · / 128 GB

GPUs similaires

// données mises à jour le 2026-05-12 via HuggingFace API.
// estimations VRAM : (params × bits/8) × overhead 20 %.