242 LLM open,
un solo calcolatore.
Indice completo dei modelli disponibili in locale. Per ogni modello: VRAM richiesta, GPU compatibili e rig consigliato. Dati sincronizzati il 2026-05-12 via HuggingFace.
I 10 modelli che consigliamo davvero.
Invece di affogarti in 240 modelli, ecco la nostra selezione per il 2026, raggruppata per dimensione di rig. Il calcolatore resta accessibile per il resto.
Per il rig Starter
1× RTX 5090 · 32 GB VRAM
- Qwen 3 32B32B
Qwen 3 — sweet spot 2026 taille/qualité. Bilingue, code, raisonnement amélioré vs 2.5.
- Gemma 4 31B31B
Gemma 4 Google. Multimodal natif, contexte 128k, qualité 2026.
- Qwen 3 14B14B
Le mid-range Qwen 3. Léger, rapide, polyvalent — idéal pour expérimentation et agents.
- Phi-4 14B14B
Microsoft Phi-4. Petit mais redoutable en raisonnement et code.
Per il rig Pro
2× RTX 5090 · 64 GB VRAM
- Llama 3.3 70B70B
Le LLM open source de référence 2026. Quasi GPT-4o, écosystème énorme.
- Qwen 3 30B A3B30B·MoE
Qwen 3 MoE (3B actifs/token). Débit serveur élevé, idéal multi-user RAG.
- Qwen 2.5 72B72B
Le challenger chinois 72B. Excellent en code et multilingue (en attendant Qwen 3 70B+).
- DeepSeek R1 Distill 70B70B
Top du raisonnement open source. Chain-of-thought, math, code, analyse step-by-step.
Per il rig Enterprise
2× RTX A6000 NVLink · 96 GB VRAM
Vuoi andare oltre? Apri il calcolatore (240+ modelli) →
Non sai cosa scegliere?
Il calcolatore incrocia 242 modelli con 204 GPU in tempo reale.
Apri calcolatore →