NVIDIADatacenterHopper

NVIDIA H100 NVL voor lokale AI

NVIDIA H100 NVL biedt 94 GB VRAM voor lokale AI. In de LocalIA-catalogus draaien 227 van 242 modellen comfortabel op één kaart.

VRAM
94GB
Categorie
Datacenter
Serie
Hopper
Vendor
NVIDIA

Modellen die comfortabel draaien

Deze modellen passen in 94 GB met marge voor context en stabiele inference.

Mistral Large 123Bmistral77.3 GBcomfortabelQ4 · / 94 GB
NVIDIA Nemotron 3 Super 120B A12B BF16nemotron75.4 GBcomfortabelQ4 · / 94 GB
Llama 4 Scout 17Bx16llama68.5 GBcomfortabelQ4 · / 94 GB
Command R+ 104Bcommand65.4 GBcomfortabelQ4 · / 94 GB
Qwen3 Next 80B A3B Instructqwen61.5 GBcomfortabelQ5 · / 94 GB
Qwen 2.5 72Bqwen55.3 GBcomfortabelQ5 · / 94 GB
Qwen 2.5 VL 72Bqwen55.3 GBcomfortabelQ5 · / 94 GB
Qwen2.5 72B Instructqwen55.3 GBcomfortabelQ5 · / 94 GB
Llama 2 70Bllama78.2 GBcomfortabelQ8 · / 94 GB
Llama 3 70Bllama78.2 GBcomfortabelQ8 · / 94 GB
Llama 3.1 70Bllama78.2 GBcomfortabelQ8 · / 94 GB
Llama 3.3 70Bllama78.2 GBcomfortabelQ8 · / 94 GB
CodeLlama 70Bcodellama78.2 GBcomfortabelQ8 · / 94 GB
DeepSeek R1 Distill 70Bdeepseek78.2 GBcomfortabelQ8 · / 94 GB
Hermes 3 70Bhermes78.2 GBcomfortabelQ8 · / 94 GB
Llama 3.1 Nemotron 70Bnemotron78.2 GBcomfortabelQ8 · / 94 GB
Athene 70Bathene78.2 GBcomfortabelQ8 · / 94 GB
Llama 3.3 70B Instructllama78.2 GBcomfortabelQ8 · / 94 GB
Llama 3.1 70B Instructllama78.2 GBcomfortabelQ8 · / 94 GB
Mixtral 8x7Bmistral52.5 GBcomfortabelQ8 · / 94 GB
Falcon 40Bfalcon44.7 GBcomfortabelQ8 · / 94 GB
Command R 35Bcommand78.2 GBcomfortabelFP16 · / 94 GB
Aya 23 35Baya78.2 GBcomfortabelFP16 · / 94 GB
CodeLlama 34Bcodellama76.0 GBcomfortabelFP16 · / 94 GB
Yi 1.5 34Byi76.0 GBcomfortabelFP16 · / 94 GB
dolphin 2.9.1 yi 1.5 34byi76.0 GBcomfortabelFP16 · / 94 GB
Qwen 2.5 32Bqwen71.5 GBcomfortabelFP16 · / 94 GB
Qwen 2.5 Coder 32Bqwen71.5 GBcomfortabelFP16 · / 94 GB
Qwen 3 32Bqwen71.5 GBcomfortabelFP16 · / 94 GB
QwQ 32Bqwq71.5 GBcomfortabelFP16 · / 94 GB

Krappe modellen

Deze modellen passen net. Ze kunnen draaien, maar context en snelheid zijn beperkt.

Mixtral 8x22Bmistral88.6 GBkrapQ4 · / 94 GB

Vrijgespeeld in 2x-rig

Met twee kaarten parallel (188 GB totaal) worden grotere modellen bereikbaar.

DeepSeek V2deepseek148.4 GBcomfortabelQ4 · / 188 GB
DeepSeek Coder V2deepseek148.4 GBcomfortabelQ4 · / 188 GB
Qwen 3 235B A22Bqwen147.7 GBcomfortabelQ4 · / 188 GB
Qwen3 235B A22Bqwen147.7 GBcomfortabelQ4 · / 188 GB
Falcon 180Bfalcon138.3 GBcomfortabelQ5 · / 188 GB

Vrijgespeeld in 4x-rig

Serverconfiguratie (376 GB totaal) voor de grootste open-weight modellen.

Llama 3.1 405Bllama311.2 GBcomfortabelQ5 · / 376 GB
Hermes 3 405Bhermes311.2 GBcomfortabelQ5 · / 376 GB
Llama 4 Maverick 17Bx128llama307.3 GBcomfortabelQ5 · / 376 GB
Nemotron 340Bnemotron261.2 GBcomfortabelQ5 · / 376 GB

Vergelijkbare GPUs

VRAM-schattingen bijgewerkt 2026-05-12.