Qwen235 B params22B actifs (MoE)128 k context★ populaire

Qwen 3 235B A22B en local

Qwen 3 235B A22B est un LLM open source de la famille Qwen, très grand (235 milliards de paramètres). Il est principalement utilisé pour le chat, le RAG et l'assistance générale. Modèle MoE avec 22B params actifs par token sur 235B au total. Le matériel minimum pour le faire tourner localement est NVIDIA B100 (192 GB).

Paramètres235 B22B actifs (MoE)
Contexte max128 k
Q4_K_M poids147.7 GB
Q5_K_M poids180.6 GB
Q8 poids262.6 GB
FP16 poids525.3 GB
FamilleQwenmoe
Dernier sync2026-05-12

Quantizations disponibles

Q4_K_M
147.7GB

Acceptable. Configs limitées en VRAM.

Q5_K_M
180.6GB

Bonne qualité. Sweet spot taille / précision.

Q8
262.6GB

Quasi-identique au FP16. Production.

FP16
525.3GB

Référence. Précision max, VRAM doublée.

⚡ modèle MoE — tous les experts (235B au total) doivent tenir en VRAM, mais seuls 22B sont actifs par token. La vitesse d'inférence est donc proche d'un modèle dense de 22B, mais la VRAM requise reste celle des 235B totaux.

GPUs compatibles

GPUs qui peuvent faire tourner Qwen 3 235B A22B sur une seule carte, classés du plus accessible au plus haut de gamme.

Modèles similaires

// données mises à jour le 2026-05-12 via HuggingFace API.
// estimations VRAM : (params × bits/8) × overhead 20 %.
// les valeurs réelles varient selon le moteur (llama.cpp, vLLM, MLX), la longueur de contexte utilisée et le batch size.