242 offene LLMs,
ein Rechner.
Vollständiger Index lokal nutzbarer Modelle. Für jedes Modell: benötigte VRAM, kompatible GPUs und empfohlenes Rig. Daten synchronisiert am 2026-05-12 über HuggingFace.
Die 10 Modelle, die wir tatsächlich empfehlen.
Statt dich in 240 Modellen zu ertränken — hier unsere Auswahl für 2026, gruppiert nach Rig-Größe. Der Rechner steht für den Rest bereit.
Für das Starter-Rig
1× RTX 5090 · 32 GB VRAM
- Qwen 3 32B32B
Qwen 3 — sweet spot 2026 taille/qualité. Bilingue, code, raisonnement amélioré vs 2.5.
- Gemma 4 31B31B
Gemma 4 Google. Multimodal natif, contexte 128k, qualité 2026.
- Qwen 3 14B14B
Le mid-range Qwen 3. Léger, rapide, polyvalent — idéal pour expérimentation et agents.
- Phi-4 14B14B
Microsoft Phi-4. Petit mais redoutable en raisonnement et code.
Für das Pro-Rig
2× RTX 5090 · 64 GB VRAM
- Llama 3.3 70B70B
Le LLM open source de référence 2026. Quasi GPT-4o, écosystème énorme.
- Qwen 3 30B A3B30B·MoE
Qwen 3 MoE (3B actifs/token). Débit serveur élevé, idéal multi-user RAG.
- Qwen 2.5 72B72B
Le challenger chinois 72B. Excellent en code et multilingue (en attendant Qwen 3 70B+).
- DeepSeek R1 Distill 70B70B
Top du raisonnement open source. Chain-of-thought, math, code, analyse step-by-step.
Für das Enterprise-Rig
2× RTX A6000 NVLink · 96 GB VRAM
Mehr brauchen? Rechner öffnen (240+ Modelle) →
Nicht sicher, was passt?
Der Rechner vergleicht 242 Modelle mit 204 GPUs in Echtzeit.
Rechner öffnen →