242 LLM open source,
un seul calculateur.
Index complet des modèles disponibles en local. Pour chaque modèle : VRAM requise, GPUs compatibles, rig recommandé. Données synchronisées le 2026-05-12via l'API HuggingFace.
Les 10 modèles qu'on recommande, point.
Plutôt que de te noyer dans 240 modèles, voilà la sélection sur laquelle on s'engage en 2026, groupée par taille de rig. Le calculateur reste accessible pour explorer le reste.
Pour le rig Starter
1× RTX 5090 · 32 GB VRAM
- Qwen 3 32B32B
Qwen 3 — sweet spot 2026 taille/qualité. Bilingue, code, raisonnement amélioré vs 2.5.
- Gemma 4 31B31B
Gemma 4 Google. Multimodal natif, contexte 128k, qualité 2026.
- Qwen 3 14B14B
Le mid-range Qwen 3. Léger, rapide, polyvalent — idéal pour expérimentation et agents.
- Phi-4 14B14B
Microsoft Phi-4. Petit mais redoutable en raisonnement et code.
Pour le rig Pro
2× RTX 5090 · 64 GB VRAM
- Llama 3.3 70B70B
Le LLM open source de référence 2026. Quasi GPT-4o, écosystème énorme.
- Qwen 3 30B A3B30B·MoE
Qwen 3 MoE (3B actifs/token). Débit serveur élevé, idéal multi-user RAG.
- Qwen 2.5 72B72B
Le challenger chinois 72B. Excellent en code et multilingue (en attendant Qwen 3 70B+).
- DeepSeek R1 Distill 70B70B
Top du raisonnement open source. Chain-of-thought, math, code, analyse step-by-step.
Pour le rig Entreprise
2× RTX A6000 NVLink · 96 GB VRAM
Besoin d'aller plus loin ? Ouvrir le calculateur (240+ modèles) →
Pas sûr de votre choix ?
Le calculateur croise les 242 modèles avec 204 GPUs en temps réel.
Ouvrir le calculateur →