Mistral Large 123B lokaal
Mistral Large 123B is een open-weight LLM uit de Mistral-familie met 123B parameters. Hoofdgebruik: chat, RAG and general assistance. Gedetecteerde minimumhardware: NVIDIA A100 80GB (80 GB).
Beschikbare quantizations
GGUF-gewichtenAcceptabel. Goede keuze bij beperkte VRAM.
Goede kwaliteit. Sweet spot voor grootte en precisie.
Bijna FP16-kwaliteit. Comfortabel voor productie.
Referentieprecisie. Maximale kwaliteit, dubbele VRAM.
Compatibele GPUs
12 single-GPUGPUs die Mistral Large 123B op één kaart kunnen draaien, gesorteerd op VRAM-marge.
Aanbevolen multi-GPU rigs
2x / 4x consumer GPUsVoor Mistral Large 123B met hogere quantization of meer context geeft een multi-GPU rig meer marge.
Aanbevolen rig
Mistral Large 123B with Ubuntu, vLLM, Open WebUI and the model already downloaded.
Vergelijkbare modellen
VRAM-schatting: parameters x bits/8 plus marge. Echte prestaties hangen af van engine, context en batch.
sync: 2026-05-12