Gemma26 B params4B actifs (MoE)128 k context★ populaire

Gemma 4 26B A4B en local

Gemma 4 26B A4B est un LLM open source de la famille Gemma, grand (26 milliards de paramètres). Il est principalement utilisé pour le chat, le RAG et l'assistance générale. Modèle MoE avec 4B params actifs par token sur 26B au total. Le matériel minimum pour le faire tourner localement est MacBook Pro 14 M3 Pro (18GB) (18 GB).

Paramètres26 B4B actifs (MoE)
Contexte max128 k
Q4_K_M poids16.3 GB
Q5_K_M poids20.0 GB
Q8 poids29.1 GB
FP16 poids58.1 GB
FamilleGemmamoe
Dernier sync2026-05-12

Quantizations disponibles

Q4_K_M
16.3GB

Acceptable. Configs limitées en VRAM.

Q5_K_M
20.0GB

Bonne qualité. Sweet spot taille / précision.

Q8
29.1GB

Quasi-identique au FP16. Production.

FP16
58.1GB

Référence. Précision max, VRAM doublée.

⚡ modèle MoE — tous les experts (26B au total) doivent tenir en VRAM, mais seuls 4B sont actifs par token. La vitesse d'inférence est donc proche d'un modèle dense de 4B, mais la VRAM requise reste celle des 26B totaux.

GPUs compatibles

GPUs qui peuvent faire tourner Gemma 4 26B A4B sur une seule carte, classés du plus accessible au plus haut de gamme.

Rigs multi-GPU recommandés

Pour faire tourner Gemma 4 26B A4B en quantization plus haute (Q8, FP16) ou avec plus de marge pour le contexte long, un rig à plusieurs GPU consumer offre le meilleur rapport perf/€.

Rig prêt à l'emploi

Recommandation
Rig Pro — pré-installé avec Gemma 4 26B A4B

2× RTX 3080 10GB, OS Ubuntu, vLLM + Open WebUI, modèle déjà téléchargé. Vous branchez, c'est en ligne.

8 990 €
Configurer

Modèles similaires

// données mises à jour le 2026-05-12 via HuggingFace API.
// estimations VRAM : (params × bits/8) × overhead 20 %.
// les valeurs réelles varient selon le moteur (llama.cpp, vLLM, MLX), la longueur de contexte utilisée et le batch size.