Tidak ada yang boleh menggunakan ollama btw > lebih lambat dari llama.cpp di windows > lebih lambat dari MLX di Mac > slop pembungkus yang tidak berguna alternatif? > lmstudio > llama.cpp > exllamav2/v3 > vllm > sglang seperti apa pun yang lebih baik daripada ollama lmao