AppleApple SiliconMac Minimémoire unifiée

Mac Mini M1 (8GB) pour l'IA locale

Le Mac Mini M1 (8GB) est un GPU entrée de gamme (8 GB de VRAM) destiné aux ordinateurs Apple Silicon. Sur les 242 modèles open source de notre catalogue, 146 tournent confortablement dessus en mono-carte. La mémoire unifiée Apple est partagée avec le système — ~75 % typiquement allouable au GPU.

VRAM
8GB unif.
Catégorie
Apple
Série
Mac Mini
Vendor
Apple

Modèles qui tournent confortablement

Ces modèles tiennent dans 8GB avec marge pour le contexte long et l'inférence stable. Triés du plus gros au plus petit.

Solar 10.7Bsolar6.7 GBcompatibleQ4 · / 8 GB
Falcon 3 10Bfalcon6.3 GBcompatibleQ4 · / 8 GB
Gemma 2 9Bgemma5.7 GBcompatibleQ4 · / 8 GB
Yi 1.5 9Byi5.7 GBcompatibleQ4 · / 8 GB
Qwen 3.5 9Bqwen5.7 GBcompatibleQ4 · / 8 GB
GLM-4 9Bglm5.7 GBcompatibleQ4 · / 8 GB
GLM-4.7 Flashglm5.7 GBcompatibleQ4 · / 8 GB
GLM-4.1V 9B Thinkingglm5.7 GBcompatibleQ4 · / 8 GB
NVIDIA Nemotron Nano 9Bnemotron5.7 GBcompatibleQ4 · / 8 GB
gemma 2 9b itgemma5.7 GBcompatibleQ4 · / 8 GB
Llama 3 8Bllama6.1 GBcompatibleQ5 · / 8 GB
Llama 3.1 8Bllama6.1 GBcompatibleQ5 · / 8 GB
Ministral 8Bmistral6.1 GBcompatibleQ5 · / 8 GB
Qwen 3 8Bqwen6.1 GBcompatibleQ5 · / 8 GB
DeepSeek R1 Distill 8Bdeepseek6.1 GBcompatibleQ5 · / 8 GB
Aya 23 8Baya6.1 GBcompatibleQ5 · / 8 GB
Granite 3 8Bgranite6.1 GBcompatibleQ5 · / 8 GB
Hermes 3 8Bhermes6.1 GBcompatibleQ5 · / 8 GB
DeepSeek R1 Distill Llama 8Bdeepseek6.1 GBcompatibleQ5 · / 8 GB
MiniCPM 4.1 8Bminicpm6.1 GBcompatibleQ5 · / 8 GB
Qwen3 8Bqwen6.1 GBcompatibleQ5 · / 8 GB
Llama 3.1 8B Instructllama6.1 GBcompatibleQ5 · / 8 GB
Meta Llama 3 8Bllama6.1 GBcompatibleQ5 · / 8 GB
Meta Llama 3 8B Instructllama6.1 GBcompatibleQ5 · / 8 GB
Llama 3.1 8Bllama6.1 GBcompatibleQ5 · / 8 GB
DeepSeek R1 Distill Llama 8Bllama6.1 GBcompatibleQ5 · / 8 GB
Llama 3.1 8B Instructllama6.1 GBcompatibleQ5 · / 8 GB
Qwen3 8B Baseqwen6.1 GBcompatibleQ5 · / 8 GB
saiga_llama3_8bllama6.1 GBcompatibleQ5 · / 8 GB
Meta Llama 3.1 8B Instructllama6.1 GBcompatibleQ5 · / 8 GB

+ 116 autres — voir le calculateur complet →

Modèles serrés (possibles mais lents)

Ces modèles tiennent tout juste. Tournent mais le contexte disponible est limité, et l'inférence peut être lente si on dépasse la VRAM (offload CPU).

Mistral Nemo 12Bmistral7.5 GBserréQ4 · / 8 GB
Gemma 3 12Bgemma7.5 GBserréQ4 · / 8 GB
StableLM 2 12Bstable7.5 GBserréQ4 · / 8 GB

Débloqués en rig 2×

Avec 2 cartes en parallèle (16 GB total), vous accédez à des modèles plus gros et à des quantizations plus hautes.

Mistral Small 3 24Bmistral15.1 GBserréQ4 · / 16 GB
Mistral Small 3.1 24Bmistral15.1 GBserréQ4 · / 16 GB
Mistral Small 3.2 24Bmistral15.1 GBserréQ4 · / 16 GB
Devstral Small 2 24Bdevstral15.1 GBserréQ4 · / 16 GB
Mistral Small 22Bmistral13.8 GBserréQ4 · / 16 GB
Codestral 22Bcodestral13.8 GBserréQ4 · / 16 GB
Reka Flash 3 21Breka13.2 GBcompatibleQ4 · / 16 GB
InternLM 2.5 20Binternlm12.6 GBcompatibleQ4 · / 16 GB
DeepSeek V2 Litedeepseek · MoE12.3 GBcompatibleQ5 · / 16 GB
DeepSeek Coder V2 Litedeepseek · MoE12.3 GBcompatibleQ5 · / 16 GB
StarCoder 2 15Bstarcoder11.5 GBcompatibleQ5 · / 16 GB
Phi-4 Reasoning Vision 15Bphi11.5 GBcompatibleQ5 · / 16 GB
Qwen 2.5 14Bqwen10.8 GBcompatibleQ5 · / 16 GB
Qwen 2.5 Coder 14Bqwen10.8 GBcompatibleQ5 · / 16 GB
Qwen 3 14Bqwen10.8 GBcompatibleQ5 · / 16 GB

Débloqués en rig 4×

Configuration entreprise / serveur (32 GB total) : vous accédez aux flagships open source 70B+ et aux MoE moyens.

Mixtral 8x7Bmistral · MoE29.5 GBserréQ4 · / 32 GB
Falcon 40Bfalcon25.1 GBcompatibleQ4 · / 32 GB
Command R 35Bcommand26.9 GBcompatibleQ5 · / 32 GB
Aya 23 35Baya26.9 GBcompatibleQ5 · / 32 GB
CodeLlama 34Bcodellama26.1 GBcompatibleQ5 · / 32 GB
Yi 1.5 34Byi26.1 GBcompatibleQ5 · / 32 GB
dolphin 2.9.1 yi 1.5 34byi26.1 GBcompatibleQ5 · / 32 GB
Qwen 2.5 32Bqwen24.6 GBcompatibleQ5 · / 32 GB
Qwen 2.5 Coder 32Bqwen24.6 GBcompatibleQ5 · / 32 GB
Qwen 3 32Bqwen24.6 GBcompatibleQ5 · / 32 GB

GPUs similaires

// données mises à jour le 2026-05-12 via HuggingFace API.
// estimations VRAM : (params × bits/8) × overhead 20 %. // apple Silicon : ~75 % de la mémoire unifiée est typiquement allouable au GPU.