oLLM: voer Qwen3-Next-80B uit op een 8GB GPU (natuurlijk met fp16 precisie)