242 open LLMs,
one calculator.
Complete index of models available locally. For each model: required VRAM, compatible GPUs, recommended rig. Data synced on 2026-05-12 via the HuggingFace API.
The 10 models we actually recommend.
Rather than drowning you in 240 models, here is our shortlist for 2026, grouped by rig size. The calculator is one click away for the rest.
For the Starter rig
1× RTX 5090 · 32 GB VRAM
- Qwen 3 32B32B
Qwen 3 — sweet spot 2026 taille/qualité. Bilingue, code, raisonnement amélioré vs 2.5.
- Gemma 4 31B31B
Gemma 4 Google. Multimodal natif, contexte 128k, qualité 2026.
- Qwen 3 14B14B
Le mid-range Qwen 3. Léger, rapide, polyvalent — idéal pour expérimentation et agents.
- Phi-4 14B14B
Microsoft Phi-4. Petit mais redoutable en raisonnement et code.
For the Pro rig
2× RTX 5090 · 64 GB VRAM
- Llama 3.3 70B70B
Le LLM open source de référence 2026. Quasi GPT-4o, écosystème énorme.
- Qwen 3 30B A3B30B·MoE
Qwen 3 MoE (3B actifs/token). Débit serveur élevé, idéal multi-user RAG.
- Qwen 2.5 72B72B
Le challenger chinois 72B. Excellent en code et multilingue (en attendant Qwen 3 70B+).
- DeepSeek R1 Distill 70B70B
Top du raisonnement open source. Chain-of-thought, math, code, analyse step-by-step.
For the Enterprise rig
2× RTX A6000 NVLink · 96 GB VRAM
Need to go further? Open the calculator (240+ models) →
Not sure what to choose?
The calculator matches 242 models against 204 GPUs in real time.
Open calculator →