AppleApple SiliconMacBook Pro 14mémoire unifiée

MacBook Pro 14 M3 Pro (18GB) pour l'IA locale

Le MacBook Pro 14 M3 Pro (18GB) est un GPU milieu de gamme (18 GB de VRAM) destiné aux ordinateurs Apple Silicon. Sur les 242 modèles open source de notre catalogue, 176 tournent confortablement dessus en mono-carte. La mémoire unifiée Apple est partagée avec le système — ~75 % typiquement allouable au GPU.

VRAM
18GB unif.
Catégorie
Apple
Série
MacBook Pro 14
Vendor
Apple

Modèles qui tournent confortablement

Ces modèles tiennent dans 18GB avec marge pour le contexte long et l'inférence stable. Triés du plus gros au plus petit.

Mistral Small 3 24Bmistral15.1 GBcompatibleQ4 · / 18 GB
Mistral Small 3.1 24Bmistral15.1 GBcompatibleQ4 · / 18 GB
Mistral Small 3.2 24Bmistral15.1 GBcompatibleQ4 · / 18 GB
Devstral Small 2 24Bdevstral15.1 GBcompatibleQ4 · / 18 GB
Mistral Small 22Bmistral13.8 GBcompatibleQ4 · / 18 GB
Codestral 22Bcodestral13.8 GBcompatibleQ4 · / 18 GB
Reka Flash 3 21Breka13.2 GBcompatibleQ4 · / 18 GB
InternLM 2.5 20Binternlm12.6 GBcompatibleQ4 · / 18 GB
DeepSeek V2 Litedeepseek · MoE12.3 GBcompatibleQ5 · / 18 GB
DeepSeek Coder V2 Litedeepseek · MoE12.3 GBcompatibleQ5 · / 18 GB
StarCoder 2 15Bstarcoder11.5 GBcompatibleQ5 · / 18 GB
Phi-4 Reasoning Vision 15Bphi11.5 GBcompatibleQ5 · / 18 GB
Qwen 2.5 14Bqwen10.8 GBcompatibleQ5 · / 18 GB
Qwen 2.5 Coder 14Bqwen10.8 GBcompatibleQ5 · / 18 GB
Qwen 3 14Bqwen10.8 GBcompatibleQ5 · / 18 GB
DeepSeek R1 Distill 14Bdeepseek10.8 GBcompatibleQ5 · / 18 GB
Phi-3 Medium 14Bphi10.8 GBcompatibleQ5 · / 18 GB
Phi-4 14Bphi10.8 GBcompatibleQ5 · / 18 GB
GLM-4.5 Airglm10.8 GBcompatibleQ5 · / 18 GB
Qwen2.5 14B Instructqwen10.8 GBcompatibleQ5 · / 18 GB
Qwen3 14Bqwen10.8 GBcompatibleQ5 · / 18 GB
Qwen2.5 Coder 14B Instructqwen10.8 GBcompatibleQ5 · / 18 GB
DeepSeek R1 Distill Qwen 14Bqwen10.8 GBcompatibleQ5 · / 18 GB
Llama 2 13Bllama14.5 GBcompatibleQ8 · / 18 GB
CodeLlama 13Bcodellama14.5 GBcompatibleQ8 · / 18 GB
OLMo 2 13Bolmo14.5 GBcompatibleQ8 · / 18 GB
Vicuna 13Bvicuna14.5 GBcompatibleQ8 · / 18 GB
Mistral Nemo 12Bmistral13.4 GBcompatibleQ8 · / 18 GB
Gemma 3 12Bgemma13.4 GBcompatibleQ8 · / 18 GB
StableLM 2 12Bstable13.4 GBcompatibleQ8 · / 18 GB

+ 146 autres — voir le calculateur complet →

Modèles serrés (possibles mais lents)

Ces modèles tiennent tout juste. Tournent mais le contexte disponible est limité, et l'inférence peut être lente si on dépasse la VRAM (offload CPU).

Gemma 2 27Bgemma17.0 GBserréQ4 · / 18 GB
Gemma 3 27Bgemma17.0 GBserréQ4 · / 18 GB
Gemma 4 26B A4Bgemma · MoE16.3 GBserréQ4 · / 18 GB

Débloqués en rig 2×

Avec 2 cartes en parallèle (36 GB total), vous accédez à des modèles plus gros et à des quantizations plus hautes.

Mixtral 8x7Bmistral · MoE29.5 GBcompatibleQ4 · / 36 GB
Falcon 40Bfalcon25.1 GBcompatibleQ4 · / 36 GB
Command R 35Bcommand26.9 GBcompatibleQ5 · / 36 GB
Aya 23 35Baya26.9 GBcompatibleQ5 · / 36 GB
CodeLlama 34Bcodellama26.1 GBcompatibleQ5 · / 36 GB
Yi 1.5 34Byi26.1 GBcompatibleQ5 · / 36 GB
dolphin 2.9.1 yi 1.5 34byi26.1 GBcompatibleQ5 · / 36 GB
Qwen 2.5 32Bqwen24.6 GBcompatibleQ5 · / 36 GB
Qwen 2.5 Coder 32Bqwen24.6 GBcompatibleQ5 · / 36 GB
Qwen 3 32Bqwen24.6 GBcompatibleQ5 · / 36 GB
QwQ 32Bqwq24.6 GBcompatibleQ5 · / 36 GB
DeepSeek R1 Distill 32Bdeepseek24.6 GBcompatibleQ5 · / 36 GB
Qwen 2.5 VL 32Bqwen24.6 GBcompatibleQ5 · / 36 GB
Granite 4 H-Small 32B-A9Bgranite · MoE24.6 GBcompatibleQ5 · / 36 GB
GLM-4.6glm24.6 GBcompatibleQ5 · / 36 GB

Débloqués en rig 4×

Configuration entreprise / serveur (72 GB total) : vous accédez aux flagships open source 70B+ et aux MoE moyens.

Llama 4 Scout 17Bx16llama · MoE68.5 GBserréQ4 · / 72 GB
Command R+ 104Bcommand65.4 GBserréQ4 · / 72 GB
Qwen3 Next 80B A3B Instructqwen50.3 GBcompatibleQ4 · / 72 GB
Qwen 2.5 72Bqwen55.3 GBcompatibleQ5 · / 72 GB
Qwen 2.5 VL 72Bqwen55.3 GBcompatibleQ5 · / 72 GB
Qwen2.5 72B Instructqwen55.3 GBcompatibleQ5 · / 72 GB
Llama 2 70Bllama53.8 GBcompatibleQ5 · / 72 GB
Llama 3 70Bllama53.8 GBcompatibleQ5 · / 72 GB
Llama 3.1 70Bllama53.8 GBcompatibleQ5 · / 72 GB
Llama 3.3 70Bllama53.8 GBcompatibleQ5 · / 72 GB

GPUs similaires

// données mises à jour le 2026-05-12 via HuggingFace API.
// estimations VRAM : (params × bits/8) × overhead 20 %. // apple Silicon : ~75 % de la mémoire unifiée est typiquement allouable au GPU.