Mimochodem, nikdo by neměl používat ollamu > pomalejší než llama.cpp na Windows > pomalejší než MLX na Macu > nepoužitelný obal Alternativy? > LMstudio > llama.cpp > exllamav2/v3 > vllm > sglang Fakt cokoliv je lepší než ollama lmao