Kukaan ei muuten saisi käyttää Ollamaa > hitaampi kuin llama.cpp Windowsissa > hitaampi kuin MLX Macilla > roska, hyödytön kääre Vaihtoehtoja? > lmstudio > llama.cpp > exllamav2/v3 > vllm > sglang Ihan oikeasti mikä tahansa on parempaa kuin Ollama, haha.