DeepSeek7B params4k contesto

DeepSeek Math 7B in locale

DeepSeek Math 7B è un LLM open-weight della famiglia DeepSeek, con 7B parametri. Uso principale: chat, RAG and general assistance. Hardware minimo rilevato: GTX 1060 6GB (6 GB).

Scheda tecnica
Parametri7B
Contesto massimo4k
Q4_K_M4.4 GB
Q5_K_M5.4 GB
Q87.8 GB
FP1615.6 GB
FamigliaDeepSeek
Ultima sync2026-05-12

Quantization disponibili

Q4_K_M
4.4GB

Accettabile. Buon compromesso con VRAM limitata.

Q5_K_M
5.4GB

Buona qualità. Punto dolce tra dimensione e precisione.

Q8
7.8GB

Qualità quasi FP16. Comoda in produzione.

FP16
15.6GB

Precisione di riferimento. Qualità massima, più VRAM.

GPU compatibili

GPU capaci di eseguire DeepSeek Math 7B su una sola scheda, ordinate per margine VRAM.

Rig multi-GPU consigliati

Per DeepSeek Math 7B con quantization più alta o più contesto, un rig multi-GPU offre più margine.

Rig consigliato

2× GTX 1650

DeepSeek Math 7B with Ubuntu, vLLM, Open WebUI and the model already downloaded.

Configura

Modelli simili

Stime VRAM: parametri x bits/8 più margine. Prestazioni reali secondo engine, contesto e batch.
sync: 2026-05-12