Niemand sollte übrigens ollama verwenden > langsamer als llama.cpp auf Windows > langsamer als mlx auf Mac > nutzloser Wrapper Alternativen? > lmstudio > llama.cpp > exllamav2/v3 > vllm > sglang Wie auch immer, alles ist besser als ollama lmao