242 open LLMs,
één calculator.
Volledige index van modellen die lokaal kunnen draaien. Per model: nodige VRAM, compatibele GPU's en aanbevolen rig. Data gesynchroniseerd op 2026-05-12 via HuggingFace.
De 10 modellen die we echt aanbevelen.
In plaats van je te overspoelen met 240 modellen, hier onze selectie voor 2026, gegroepeerd per rig-formaat. De calculator blijft bereikbaar voor de rest.
Voor de Starter rig
1× RTX 5090 · 32 GB VRAM
- Qwen 3 32B32B
Qwen 3 — sweet spot 2026 taille/qualité. Bilingue, code, raisonnement amélioré vs 2.5.
- Gemma 4 31B31B
Gemma 4 Google. Multimodal natif, contexte 128k, qualité 2026.
- Qwen 3 14B14B
Le mid-range Qwen 3. Léger, rapide, polyvalent — idéal pour expérimentation et agents.
- Phi-4 14B14B
Microsoft Phi-4. Petit mais redoutable en raisonnement et code.
Voor de Pro rig
2× RTX 5090 · 64 GB VRAM
- Llama 3.3 70B70B
Le LLM open source de référence 2026. Quasi GPT-4o, écosystème énorme.
- Qwen 3 30B A3B30B·MoE
Qwen 3 MoE (3B actifs/token). Débit serveur élevé, idéal multi-user RAG.
- Qwen 2.5 72B72B
Le challenger chinois 72B. Excellent en code et multilingue (en attendant Qwen 3 70B+).
- DeepSeek R1 Distill 70B70B
Top du raisonnement open source. Chain-of-thought, math, code, analyse step-by-step.
Voor de Enterprise rig
2× RTX A6000 NVLink · 96 GB VRAM
Verder kijken? Open de calculator (240+ modellen) →
Niet zeker wat je nodig hebt?
De calculator kruist 242 modellen met 204 GPU's in real time.
Open calculator →