AppleApple SiliconMac Promémoire unifiée

Mac Pro M2 Ultra (192GB) pour l'IA locale

Le Mac Pro M2 Ultra (192GB) est un GPU data center (192 GB de VRAM) destiné aux ordinateurs Apple Silicon. Sur les 242 modèles open source de notre catalogue, 233 tournent confortablement dessus en mono-carte. La mémoire unifiée Apple est partagée avec le système — ~75 % typiquement allouable au GPU.

VRAM
192GB unif.
Catégorie
Apple
Série
Mac Pro
Vendor
Apple

Modèles qui tournent confortablement

Ces modèles tiennent dans 192GB avec marge pour le contexte long et l'inférence stable. Triés du plus gros au plus petit.

DeepSeek V2deepseek · MoE148.4 GBcompatibleQ4 · / 192 GB
DeepSeek Coder V2deepseek · MoE148.4 GBcompatibleQ4 · / 192 GB
Qwen 3 235B A22Bqwen · MoE147.7 GBcompatibleQ4 · / 192 GB
Qwen3 235B A22Bqwen147.7 GBcompatibleQ4 · / 192 GB
Falcon 180Bfalcon138.3 GBcompatibleQ5 · / 192 GB
Mixtral 8x22Bmistral · MoE157.6 GBcompatibleQ8 · / 192 GB
Mistral Large 123Bmistral137.5 GBcompatibleQ8 · / 192 GB
NVIDIA Nemotron 3 Super 120B A12B BF16nemotron134.1 GBcompatibleQ8 · / 192 GB
Llama 4 Scout 17Bx16llama · MoE121.8 GBcompatibleQ8 · / 192 GB
Command R+ 104Bcommand116.2 GBcompatibleQ8 · / 192 GB
Qwen3 Next 80B A3B Instructqwen89.4 GBcompatibleQ8 · / 192 GB
Qwen 2.5 72Bqwen160.9 GBcompatibleFP16 · / 192 GB
Qwen 2.5 VL 72Bqwen160.9 GBcompatibleFP16 · / 192 GB
Qwen2.5 72B Instructqwen160.9 GBcompatibleFP16 · / 192 GB
Llama 2 70Bllama156.5 GBcompatibleFP16 · / 192 GB
Llama 3 70Bllama156.5 GBcompatibleFP16 · / 192 GB
Llama 3.1 70Bllama156.5 GBcompatibleFP16 · / 192 GB
Llama 3.3 70Bllama156.5 GBcompatibleFP16 · / 192 GB
CodeLlama 70Bcodellama156.5 GBcompatibleFP16 · / 192 GB
DeepSeek R1 Distill 70Bdeepseek156.5 GBcompatibleFP16 · / 192 GB
Hermes 3 70Bhermes156.5 GBcompatibleFP16 · / 192 GB
Llama 3.1 Nemotron 70Bnemotron156.5 GBcompatibleFP16 · / 192 GB
Athene 70Bathene156.5 GBcompatibleFP16 · / 192 GB
Llama 3.3 70B Instructllama156.5 GBcompatibleFP16 · / 192 GB
Llama 3.1 70B Instructllama156.5 GBcompatibleFP16 · / 192 GB
Mixtral 8x7Bmistral · MoE105.1 GBcompatibleFP16 · / 192 GB
Falcon 40Bfalcon89.4 GBcompatibleFP16 · / 192 GB
Command R 35Bcommand78.2 GBcompatibleFP16 · / 192 GB
Aya 23 35Baya78.2 GBcompatibleFP16 · / 192 GB
CodeLlama 34Bcodellama76.0 GBcompatibleFP16 · / 192 GB

+ 203 autres — voir le calculateur complet →

Débloqués en rig 2×

Avec 2 cartes en parallèle (384 GB total), vous accédez à des modèles plus gros et à des quantizations plus hautes.

Llama 3.1 405Bllama311.2 GBcompatibleQ5 · / 384 GB
Hermes 3 405Bhermes311.2 GBcompatibleQ5 · / 384 GB
Llama 4 Maverick 17Bx128llama · MoE307.3 GBcompatibleQ5 · / 384 GB
Nemotron 340Bnemotron261.2 GBcompatibleQ5 · / 384 GB

Débloqués en rig 4×

Configuration entreprise / serveur (768 GB total) : vous accédez aux flagships open source 70B+ et aux MoE moyens.

DeepSeek V3.2deepseek · MoE526.3 GBcompatibleQ5 · / 768 GB
DeepSeek V4 Prodeepseek · MoE526.3 GBcompatibleQ5 · / 768 GB
DeepSeek R1deepseek · MoE515.6 GBcompatibleQ5 · / 768 GB
DeepSeek V3deepseek · MoE515.6 GBcompatibleQ5 · / 768 GB
DeepSeek R1 (0528 snapshot)deepseek · MoE515.6 GBcompatibleQ5 · / 768 GB

GPUs similaires

// données mises à jour le 2026-05-12 via HuggingFace API.
// estimations VRAM : (params × bits/8) × overhead 20 %. // apple Silicon : ~75 % de la mémoire unifiée est typiquement allouable au GPU.