Llama 4 Maverick 17Bx128 en local
Llama 4 Maverick 17Bx128 est un LLM open source de la famille Llama, très grand (400 milliards de paramètres). Il est principalement utilisé pour le chat, le RAG et l'assistance générale. Modèle MoE avec 17B params actifs par token sur 400B au total. Le matériel minimum pour le faire tourner localement est Instinct MI325X (256 GB).
Quantizations disponibles
poids GGUF · llama.cpp 0.4+Acceptable. Configs limitées en VRAM.
Bonne qualité. Sweet spot taille / précision.
Quasi-identique au FP16. Production.
Référence. Précision max, VRAM doublée.
GPUs compatibles
vérifié · 3 configs mono-carteGPUs qui peuvent faire tourner Llama 4 Maverick 17Bx128 sur une seule carte, classés du plus accessible au plus haut de gamme.
Modèles similaires
// données mises à jour le 2026-05-12 via HuggingFace API.
// estimations VRAM : (params × bits/8) × overhead 20 %.
// les valeurs réelles varient selon le moteur (llama.cpp, vLLM, MLX), la longueur de contexte utilisée et le batch size.