242 LLM abiertos,
una sola calculadora.
Índice completo de modelos disponibles en local. Para cada modelo: VRAM requerida, GPUs compatibles y rig recomendado. Datos sincronizados el 2026-05-12 vía HuggingFace.
Los 10 modelos que realmente recomendamos.
En vez de ahogarte con 240 modelos, aquí está nuestra selección para 2026, agrupada por tamaño de rig. La calculadora queda accesible para el resto.
Para el rig Starter
1× RTX 5090 · 32 GB VRAM
- Qwen 3 32B32B
Qwen 3 — sweet spot 2026 taille/qualité. Bilingue, code, raisonnement amélioré vs 2.5.
- Gemma 4 31B31B
Gemma 4 Google. Multimodal natif, contexte 128k, qualité 2026.
- Qwen 3 14B14B
Le mid-range Qwen 3. Léger, rapide, polyvalent — idéal pour expérimentation et agents.
- Phi-4 14B14B
Microsoft Phi-4. Petit mais redoutable en raisonnement et code.
Para el rig Pro
2× RTX 5090 · 64 GB VRAM
- Llama 3.3 70B70B
Le LLM open source de référence 2026. Quasi GPT-4o, écosystème énorme.
- Qwen 3 30B A3B30B·MoE
Qwen 3 MoE (3B actifs/token). Débit serveur élevé, idéal multi-user RAG.
- Qwen 2.5 72B72B
Le challenger chinois 72B. Excellent en code et multilingue (en attendant Qwen 3 70B+).
- DeepSeek R1 Distill 70B70B
Top du raisonnement open source. Chain-of-thought, math, code, analyse step-by-step.
Para el rig Empresa
2× RTX A6000 NVLink · 96 GB VRAM
¿Quieres ir más lejos? Abrir la calculadora (240+ modelos) →
¿No sabes cuál elegir?
La calculadora cruza 242 modelos con 204 GPUs en tiempo real.
Abrir calculadora →