Gemma9B params8k contextopopular
Gemma 2 9B en local
Gemma 2 9B es un LLM open-weight de la familia Gemma, con 9B parámetros. Uso principal: chat, RAG and general assistance. Hardware mínimo detectado: GTX 1060 6GB (6 GB).
Ficha técnica
Parámetros9B
Contexto máximo8k
Q4_K_M5.7 GB
Q5_K_M6.9 GB
Q810.1 GB
FP1620.1 GB
FamiliaGemma
Última sync2026-05-12
Quantizations disponibles
pesos GGUFQ4_K_M
5.7GB
Aceptable. Buen compromiso si la VRAM es limitada.
Q5_K_M
6.9GB
Buena calidad. Punto dulce tamaño / precisión.
Q8
10.1GB
Calidad casi FP16. Cómodo para producción.
FP16
20.1GB
Precisión de referencia. Máxima calidad, más VRAM.
GPUs compatibles
12 single-GPUGPUs capaces de ejecutar Gemma 2 9B en una sola tarjeta, ordenadas por margen de VRAM.
GTX 1060 6GB
NVIDIA6 GB · GTX 10
5.7 / 6 GBjusto · Q4
GTX 1660
NVIDIA6 GB · GTX 16
5.7 / 6 GBjusto · Q4
GTX 1660 Super
NVIDIA6 GB · GTX 16
5.7 / 6 GBjusto · Q4
GTX 1660 Ti
NVIDIA6 GB · GTX 16
5.7 / 6 GBjusto · Q4
RTX 2060 6GB
NVIDIA6 GB · RTX 20
5.7 / 6 GBjusto · Q4
RTX 3050 6GB
NVIDIA6 GB · RTX 30
5.7 / 6 GBjusto · Q4
Arc A380
Intel6 GB · Arc Alchemist
5.7 / 6 GBjusto · Q4
GTX 1070
NVIDIA8 GB · GTX 10
5.7 / 8 GBcómodo · Q4
GTX 1070 Ti
NVIDIA8 GB · GTX 10
5.7 / 8 GBcómodo · Q4
GTX 1080
NVIDIA8 GB · GTX 10
5.7 / 8 GBcómodo · Q4
RTX 2060 Super
NVIDIA8 GB · RTX 20
5.7 / 8 GBcómodo · Q4
RTX 2070
NVIDIA8 GB · RTX 20
5.7 / 8 GBcómodo · Q4
Rigs multi-GPU recomendados
2x / 4x consumer GPUsPara Gemma 2 9B con quantization más alta o más contexto, un rig multi-GPU da más margen.
2× GTX 1650
NVIDIA8 GB · GTX 16
5.7 / 8 GBcómodo · Q4
2× GTX 1060 6GB
NVIDIA12 GB · GTX 10
10.1 / 12 GBcómodo · Q8
2× GTX 1660
NVIDIA12 GB · GTX 16
10.1 / 12 GBcómodo · Q8
2× GTX 1660 Super
NVIDIA12 GB · GTX 16
10.1 / 12 GBcómodo · Q8
2× GTX 1660 Ti
NVIDIA12 GB · GTX 16
10.1 / 12 GBcómodo · Q8
2× RTX 2060 6GB
NVIDIA12 GB · RTX 20
10.1 / 12 GBcómodo · Q8
2× RTX 3050 6GB
NVIDIA12 GB · RTX 30
10.1 / 12 GBcómodo · Q8
2× Arc A380
Intel12 GB · Arc Alchemist
10.1 / 12 GBcómodo · Q8
Rig recomendado
2× GTX 1650
Gemma 2 9B with Ubuntu, vLLM, Open WebUI and the model already downloaded.
Modelos similares
Estimaciones VRAM: parámetros x bits/8 más margen. El rendimiento real varía según motor, contexto y batch.
sync: 2026-05-12