Granite7 B params1B actifs (MoE)128 k context★ populaire

Granite 4 H-Tiny 7B-A1B en local

Granite 4 H-Tiny 7B-A1B est un LLM open source de la famille Granite, moyen (7 milliards de paramètres). Il est principalement utilisé pour le chat, le RAG et l'assistance générale. Modèle MoE avec 1B params actifs par token sur 7B au total. Le matériel minimum pour le faire tourner localement est GTX 1060 6GB (6 GB).

Paramètres7 B1B actifs (MoE)
Contexte max128 k
Q4_K_M poids4.4 GB
Q5_K_M poids5.4 GB
Q8 poids7.8 GB
FP16 poids15.6 GB
FamilleGranitemoe
Dernier sync2026-05-12

Quantizations disponibles

Q4_K_M
4.4GB

Acceptable. Configs limitées en VRAM.

Q5_K_M
5.4GB

Bonne qualité. Sweet spot taille / précision.

Q8
7.8GB

Quasi-identique au FP16. Production.

FP16
15.6GB

Référence. Précision max, VRAM doublée.

⚡ modèle MoE — tous les experts (7B au total) doivent tenir en VRAM, mais seuls 1B sont actifs par token. La vitesse d'inférence est donc proche d'un modèle dense de 1B, mais la VRAM requise reste celle des 7B totaux.

GPUs compatibles

GPUs qui peuvent faire tourner Granite 4 H-Tiny 7B-A1B sur une seule carte, classés du plus accessible au plus haut de gamme.

Rigs multi-GPU recommandés

Pour faire tourner Granite 4 H-Tiny 7B-A1B en quantization plus haute (Q8, FP16) ou avec plus de marge pour le contexte long, un rig à plusieurs GPU consumer offre le meilleur rapport perf/€.

Rig prêt à l'emploi

Recommandation
Rig Pro — pré-installé avec Granite 4 H-Tiny 7B-A1B

2× GTX 1650, OS Ubuntu, vLLM + Open WebUI, modèle déjà téléchargé. Vous branchez, c'est en ligne.

8 990 €
Configurer

Modèles similaires

// données mises à jour le 2026-05-12 via HuggingFace API.
// estimations VRAM : (params × bits/8) × overhead 20 %.
// les valeurs réelles varient selon le moteur (llama.cpp, vLLM, MLX), la longueur de contexte utilisée et le batch size.