AppleApple SiliconMac Studiomémoire unifiée

Mac Studio M3 Ultra (256GB) pour l'IA locale

Le Mac Studio M3 Ultra (256GB) est un GPU data center (256 GB de VRAM) destiné aux ordinateurs Apple Silicon. Sur les 242 modèles open source de notre catalogue, 234 tournent confortablement dessus en mono-carte. La mémoire unifiée Apple est partagée avec le système — ~75 % typiquement allouable au GPU.

VRAM
256GB unif.
Catégorie
Apple
Série
Mac Studio
Vendor
Apple

Modèles qui tournent confortablement

Ces modèles tiennent dans 256GB avec marge pour le contexte long et l'inférence stable. Triés du plus gros au plus petit.

Nemotron 340Bnemotron213.7 GBcompatibleQ4 · / 256 GB
DeepSeek V2deepseek · MoE181.3 GBcompatibleQ5 · / 256 GB
DeepSeek Coder V2deepseek · MoE181.3 GBcompatibleQ5 · / 256 GB
Qwen 3 235B A22Bqwen · MoE180.6 GBcompatibleQ5 · / 256 GB
Qwen3 235B A22Bqwen180.6 GBcompatibleQ5 · / 256 GB
Falcon 180Bfalcon201.2 GBcompatibleQ8 · / 256 GB
Mixtral 8x22Bmistral · MoE157.6 GBcompatibleQ8 · / 256 GB
Mistral Large 123Bmistral137.5 GBcompatibleQ8 · / 256 GB
NVIDIA Nemotron 3 Super 120B A12B BF16nemotron134.1 GBcompatibleQ8 · / 256 GB
Llama 4 Scout 17Bx16llama · MoE121.8 GBcompatibleQ8 · / 256 GB
Command R+ 104Bcommand116.2 GBcompatibleQ8 · / 256 GB
Qwen3 Next 80B A3B Instructqwen178.8 GBcompatibleFP16 · / 256 GB
Qwen 2.5 72Bqwen160.9 GBcompatibleFP16 · / 256 GB
Qwen 2.5 VL 72Bqwen160.9 GBcompatibleFP16 · / 256 GB
Qwen2.5 72B Instructqwen160.9 GBcompatibleFP16 · / 256 GB
Llama 2 70Bllama156.5 GBcompatibleFP16 · / 256 GB
Llama 3 70Bllama156.5 GBcompatibleFP16 · / 256 GB
Llama 3.1 70Bllama156.5 GBcompatibleFP16 · / 256 GB
Llama 3.3 70Bllama156.5 GBcompatibleFP16 · / 256 GB
CodeLlama 70Bcodellama156.5 GBcompatibleFP16 · / 256 GB
DeepSeek R1 Distill 70Bdeepseek156.5 GBcompatibleFP16 · / 256 GB
Hermes 3 70Bhermes156.5 GBcompatibleFP16 · / 256 GB
Llama 3.1 Nemotron 70Bnemotron156.5 GBcompatibleFP16 · / 256 GB
Athene 70Bathene156.5 GBcompatibleFP16 · / 256 GB
Llama 3.3 70B Instructllama156.5 GBcompatibleFP16 · / 256 GB
Llama 3.1 70B Instructllama156.5 GBcompatibleFP16 · / 256 GB
Mixtral 8x7Bmistral · MoE105.1 GBcompatibleFP16 · / 256 GB
Falcon 40Bfalcon89.4 GBcompatibleFP16 · / 256 GB
Command R 35Bcommand78.2 GBcompatibleFP16 · / 256 GB
Aya 23 35Baya78.2 GBcompatibleFP16 · / 256 GB

+ 204 autres — voir le calculateur complet →

Modèles serrés (possibles mais lents)

Ces modèles tiennent tout juste. Tournent mais le contexte disponible est limité, et l'inférence peut être lente si on dépasse la VRAM (offload CPU).

Llama 3.1 405Bllama254.6 GBserréQ4 · / 256 GB
Hermes 3 405Bhermes254.6 GBserréQ4 · / 256 GB
Llama 4 Maverick 17Bx128llama · MoE251.5 GBserréQ4 · / 256 GB

Débloqués en rig 2×

Avec 2 cartes en parallèle (512 GB total), vous accédez à des modèles plus gros et à des quantizations plus hautes.

DeepSeek V3.2deepseek · MoE430.6 GBcompatibleQ4 · / 512 GB
DeepSeek V4 Prodeepseek · MoE430.6 GBcompatibleQ4 · / 512 GB
DeepSeek R1deepseek · MoE421.8 GBcompatibleQ4 · / 512 GB
DeepSeek V3deepseek · MoE421.8 GBcompatibleQ4 · / 512 GB
DeepSeek R1 (0528 snapshot)deepseek · MoE421.8 GBcompatibleQ4 · / 512 GB

GPUs similaires

// données mises à jour le 2026-05-12 via HuggingFace API.
// estimations VRAM : (params × bits/8) × overhead 20 %. // apple Silicon : ~75 % de la mémoire unifiée est typiquement allouable au GPU.