Phi15 B params128 k context★ populairereasoning

Phi-4 Reasoning Vision 15B en local

Phi-4 Reasoning Vision 15B est un LLM open source de la famille Phi, grand (15 milliards de paramètres). Il est principalement utilisé pour le raisonnement complexe et la résolution de problèmes. Le matériel minimum pour le faire tourner localement est RTX 3080 10GB (10 GB).

Paramètres15 B
Contexte max128 k
Q4_K_M poids9.4 GB
Q5_K_M poids11.5 GB
Q8 poids16.8 GB
FP16 poids33.5 GB
FamillePhireasoning · vision
Dernier sync2026-05-12

Quantizations disponibles

Q4_K_M
9.4GB

Acceptable. Configs limitées en VRAM.

Q5_K_M
11.5GB

Bonne qualité. Sweet spot taille / précision.

Q8
16.8GB

Quasi-identique au FP16. Production.

FP16
33.5GB

Référence. Précision max, VRAM doublée.

GPUs compatibles

GPUs qui peuvent faire tourner Phi-4 Reasoning Vision 15B sur une seule carte, classés du plus accessible au plus haut de gamme.

Rigs multi-GPU recommandés

Pour faire tourner Phi-4 Reasoning Vision 15B en quantization plus haute (Q8, FP16) ou avec plus de marge pour le contexte long, un rig à plusieurs GPU consumer offre le meilleur rapport perf/€.

Rig prêt à l'emploi

Recommandation
Rig Pro — pré-installé avec Phi-4 Reasoning Vision 15B

2× GTX 1060 6GB, OS Ubuntu, vLLM + Open WebUI, modèle déjà téléchargé. Vous branchez, c'est en ligne.

8 990 €
Configurer

Modèles similaires

// données mises à jour le 2026-05-12 via HuggingFace API.
// estimations VRAM : (params × bits/8) × overhead 20 %.
// les valeurs réelles varient selon le moteur (llama.cpp, vLLM, MLX), la longueur de contexte utilisée et le batch size.