Gemma12B params128k contextopopular
Gemma 3 12B en local
Gemma 3 12B es un LLM open-weight de la familia Gemma, con 12B parámetros. Uso principal: chat, RAG and general assistance. Hardware mínimo detectado: GTX 1070 (8 GB).
Ficha técnica
Parámetros12B
Contexto máximo128k
Q4_K_M7.5 GB
Q5_K_M9.2 GB
Q813.4 GB
FP1626.8 GB
FamiliaGemma
Última sync2026-05-12
Quantizations disponibles
pesos GGUFQ4_K_M
7.5GB
Aceptable. Buen compromiso si la VRAM es limitada.
Q5_K_M
9.2GB
Buena calidad. Punto dulce tamaño / precisión.
Q8
13.4GB
Calidad casi FP16. Cómodo para producción.
FP16
26.8GB
Precisión de referencia. Máxima calidad, más VRAM.
GPUs compatibles
12 single-GPUGPUs capaces de ejecutar Gemma 3 12B en una sola tarjeta, ordenadas por margen de VRAM.
GTX 1070
NVIDIA8 GB · GTX 10
7.5 / 8 GBjusto · Q4
GTX 1070 Ti
NVIDIA8 GB · GTX 10
7.5 / 8 GBjusto · Q4
GTX 1080
NVIDIA8 GB · GTX 10
7.5 / 8 GBjusto · Q4
RTX 2060 Super
NVIDIA8 GB · RTX 20
7.5 / 8 GBjusto · Q4
RTX 2070
NVIDIA8 GB · RTX 20
7.5 / 8 GBjusto · Q4
RTX 2070 Super
NVIDIA8 GB · RTX 20
7.5 / 8 GBjusto · Q4
RTX 2080
NVIDIA8 GB · RTX 20
7.5 / 8 GBjusto · Q4
RTX 2080 Super
NVIDIA8 GB · RTX 20
7.5 / 8 GBjusto · Q4
RTX 3050 8GB
NVIDIA8 GB · RTX 30
7.5 / 8 GBjusto · Q4
RTX 3060 8GB
NVIDIA8 GB · RTX 30
7.5 / 8 GBjusto · Q4
RTX 3060 Ti
NVIDIA8 GB · RTX 30
7.5 / 8 GBjusto · Q4
RTX 3070
NVIDIA8 GB · RTX 30
7.5 / 8 GBjusto · Q4
Rigs multi-GPU recomendados
2x / 4x consumer GPUsPara Gemma 3 12B con quantization más alta o más contexto, un rig multi-GPU da más margen.
2× GTX 1650
NVIDIA8 GB · GTX 16
7.5 / 8 GBjusto · Q4
2× GTX 1060 6GB
NVIDIA12 GB · GTX 10
9.2 / 12 GBcómodo · Q5
2× GTX 1660
NVIDIA12 GB · GTX 16
9.2 / 12 GBcómodo · Q5
2× GTX 1660 Super
NVIDIA12 GB · GTX 16
9.2 / 12 GBcómodo · Q5
2× GTX 1660 Ti
NVIDIA12 GB · GTX 16
9.2 / 12 GBcómodo · Q5
2× RTX 2060 6GB
NVIDIA12 GB · RTX 20
9.2 / 12 GBcómodo · Q5
2× RTX 3050 6GB
NVIDIA12 GB · RTX 30
9.2 / 12 GBcómodo · Q5
2× Arc A380
Intel12 GB · Arc Alchemist
9.2 / 12 GBcómodo · Q5
Rig recomendado
2× GTX 1060 6GB
Gemma 3 12B with Ubuntu, vLLM, Open WebUI and the model already downloaded.
Modelos similares
Estimaciones VRAM: parámetros x bits/8 más margen. El rendimiento real varía según motor, contexto y batch.
sync: 2026-05-12