Llama400 B params17B actifs (MoE)10000 k context★ populaire

Llama 4 Maverick 17Bx128 en local

Llama 4 Maverick 17Bx128 est un LLM open source de la famille Llama, très grand (400 milliards de paramètres). Il est principalement utilisé pour le chat, le RAG et l'assistance générale. Modèle MoE avec 17B params actifs par token sur 400B au total. Le matériel minimum pour le faire tourner localement est Instinct MI325X (256 GB).

Paramètres400 B17B actifs (MoE)
Contexte max10000 k
Q4_K_M poids251.5 GB
Q5_K_M poids307.3 GB
Q8 poids447.0 GB
FP16 poids894.1 GB
FamilleLlamamoe
Dernier sync2026-05-12

Quantizations disponibles

Q4_K_M
251.5GB

Acceptable. Configs limitées en VRAM.

Q5_K_M
307.3GB

Bonne qualité. Sweet spot taille / précision.

Q8
447.0GB

Quasi-identique au FP16. Production.

FP16
894.1GB

Référence. Précision max, VRAM doublée.

⚡ modèle MoE — tous les experts (400B au total) doivent tenir en VRAM, mais seuls 17B sont actifs par token. La vitesse d'inférence est donc proche d'un modèle dense de 17B, mais la VRAM requise reste celle des 400B totaux.

GPUs compatibles

GPUs qui peuvent faire tourner Llama 4 Maverick 17Bx128 sur une seule carte, classés du plus accessible au plus haut de gamme.

Modèles similaires

// données mises à jour le 2026-05-12 via HuggingFace API.
// estimations VRAM : (params × bits/8) × overhead 20 %.
// les valeurs réelles varient selon le moteur (llama.cpp, vLLM, MLX), la longueur de contexte utilisée et le batch size.