Codestral22 B params33 k context★ populairecode

Codestral 22B en local

Codestral 22B est un LLM open source de la famille Codestral, grand (22 milliards de paramètres). Il est principalement utilisé pour la génération de code et l'agentic dev. Le matériel minimum pour le faire tourner localement est RTX 4060 Ti 16GB (16 GB).

Paramètres22 B
Contexte max33 k
Q4_K_M poids13.8 GB
Q5_K_M poids16.9 GB
Q8 poids24.6 GB
FP16 poids49.2 GB
FamilleCodestralcoder
Dernier sync2026-05-12

Quantizations disponibles

Q4_K_M
13.8GB

Acceptable. Configs limitées en VRAM.

Q5_K_M
16.9GB

Bonne qualité. Sweet spot taille / précision.

Q8
24.6GB

Quasi-identique au FP16. Production.

FP16
49.2GB

Référence. Précision max, VRAM doublée.

GPUs compatibles

GPUs qui peuvent faire tourner Codestral 22B sur une seule carte, classés du plus accessible au plus haut de gamme.

Rigs multi-GPU recommandés

Pour faire tourner Codestral 22B en quantization plus haute (Q8, FP16) ou avec plus de marge pour le contexte long, un rig à plusieurs GPU consumer offre le meilleur rapport perf/€.

Rig prêt à l'emploi

Recommandation
Rig Pro — pré-installé avec Codestral 22B

2× GTX 1070, OS Ubuntu, vLLM + Open WebUI, modèle déjà téléchargé. Vous branchez, c'est en ligne.

8 990 €
Configurer

// données mises à jour le 2026-05-12 via HuggingFace API.
// estimations VRAM : (params × bits/8) × overhead 20 %.
// les valeurs réelles varient selon le moteur (llama.cpp, vLLM, MLX), la longueur de contexte utilisée et le batch size.