InternLM20B params33k Kontext

InternLM 2.5 20B lokal

InternLM 2.5 20B ist ein Open-Weight-LLM aus der Familie InternLM mit 20B Parametern. Haupteinsatz: chat, RAG and general assistance. Erkannte Mindesthardware: RTX 4060 Ti 16GB (16 GB).

Technische Daten
Parameter20B
Max. Kontext33k
Q4_K_M12.6 GB
Q5_K_M15.4 GB
Q822.4 GB
FP1644.7 GB
FamilieInternLM
Letzter Sync2026-05-12

Verfügbare Quantizations

Q4_K_M
12.6GB

Akzeptabel. Guter Kompromiss bei knapper VRAM.

Q5_K_M
15.4GB

Gute Qualität. Sweet Spot aus Größe und Präzision.

Q8
22.4GB

Fast FP16-Qualität. Produktionstauglich.

FP16
44.7GB

Referenzpräzision. Maximale Qualität, doppelte VRAM.

Kompatible GPUs

GPUs, die InternLM 2.5 20B auf einer einzelnen Karte ausführen können, nach VRAM-Spielraum sortiert.

Empfohlene Multi-GPU-Rigs

Für InternLM 2.5 20B mit höherer Quantization oder mehr Kontext bietet ein Multi-GPU-Rig mehr Spielraum.

Empfohlener Rig

2× GTX 1070

InternLM 2.5 20B with Ubuntu, vLLM, Open WebUI and the model already downloaded.

Konfigurieren

Ähnliche Modelle

VRAM-Schätzung: Parameter x bits/8 plus Reserve. Reale Leistung hängt von Engine, Kontext und Batch ab.
sync: 2026-05-12