face-à-face · LLM local

Phi-4 14B vs Qwen 2.5 72B

Comparatif chiffré : VRAM requise par quantization, GPUs compatibles pour faire tourner chacun en local, et verdict construit depuis les specs réelles. Pas de bench truqué, juste les chiffres.

14B
params Phi-4 14B
72B
params Qwen 2.5 72B
Phi
famille A
Qwen
famille B
▲ Specs côte à côte

Les chiffres bruts.

Phi · 14B

Phi-4 14B

  • Total paramètres14B
  • Contexte max16k tokens
  • FamillePhi
  • TypeDense
→ Fiche Phi-4 14B
▲ VRAM par quantization

Combien de VRAM il te faut.

Estimation incluant l'overhead (KV cache + activations) ×1.12. Pour un MoE, on prend les paramètres totaux car le modèle complet doit être chargé en mémoire (les experts inactifs aussi).

QuantPhi-4 14BQwen 2.5 72BÉcart
Q36.9 GB35.3 GB28.4 GB
Q48.8 GB45.4 GB36.6 GB
Q510.8 GB55.4 GB44.6 GB
Q612.7 GB65.5 GB52.8 GB
Q815.7 GB80.6 GB64.9 GB
FP1631.4 GB161.3 GB129.9 GB
▲ GPU minimum pour chacun en Q4

Quel GPU suffit pour quoi.

▲ Verdict

Ce que les chiffres disent.

Qwen 2.5 72B est 5.1× plus gros que Phi-4 14B — plus de connaissances, mais 45 GB de VRAM contre 9 GB.

Choisir Phi-4 14B

Tu manques de VRAM, tu veux du débit token/s, ou tu déploies sur edge (laptop, mini-PC).

→ Fiche Phi-4 14B
Choisir Qwen 2.5 72B

Tu privilégies la qualité de raisonnement, tu as une grosse VRAM (48 GB+), tu acceptes un débit plus faible.

→ Fiche Qwen 2.5 72B

Tester avec ton GPU ?

Le calculateur croise ces 2 modèles avec 200+ GPUs et te donne tok/s estimés, €/Mtok et break-even cloud.