SmolLM0.135 B params8 k context

SmolLM 2 135M en local

SmolLM 2 135M est un LLM open source de la famille SmolLM, petit (0.135 milliards de paramètres). Il est principalement utilisé pour le chat, le RAG et l'assistance générale. Le matériel minimum pour le faire tourner localement est GTX 1650 (4 GB).

Paramètres0.135 B
Contexte max8 k
Q4_K_M poids0.1 GB
Q5_K_M poids0.1 GB
Q8 poids0.2 GB
FP16 poids0.3 GB
FamilleSmolLM
Dernier sync2026-05-12

Quantizations disponibles

Q4_K_M
0.1GB

Acceptable. Configs limitées en VRAM.

Q5_K_M
0.1GB

Bonne qualité. Sweet spot taille / précision.

Q8
0.2GB

Quasi-identique au FP16. Production.

FP16
0.3GB

Référence. Précision max, VRAM doublée.

GPUs compatibles

GPUs qui peuvent faire tourner SmolLM 2 135M sur une seule carte, classés du plus accessible au plus haut de gamme.

Rigs multi-GPU recommandés

Pour faire tourner SmolLM 2 135M en quantization plus haute (Q8, FP16) ou avec plus de marge pour le contexte long, un rig à plusieurs GPU consumer offre le meilleur rapport perf/€.

Rig prêt à l'emploi

Recommandation
Rig Pro — pré-installé avec SmolLM 2 135M

2× GTX 1650, OS Ubuntu, vLLM + Open WebUI, modèle déjà téléchargé. Vous branchez, c'est en ligne.

8 990 €
Configurer

// données mises à jour le 2026-05-12 via HuggingFace API.
// estimations VRAM : (params × bits/8) × overhead 20 %.
// les valeurs réelles varient selon le moteur (llama.cpp, vLLM, MLX), la longueur de contexte utilisée et le batch size.