🚀 Wsparcie Dzień 0: Kimi K2 Thinking teraz działa na vLLM! We współpracy z @Kimi_Moonshot, z dumą dostarczamy oficjalne wsparcie dla nowoczesnego modelu myślenia z 1T parametrami, 32B aktywnymi. Łatwe wdrożenie w vLLM (wersja nocna) z interfejsem API zgodnym z OpenAI: Co czyni go wyjątkowym: ⚡ Natywna kwantyzacja INT4 → 2× szybsze wnioskowanie 💾 Połowa pamięci, brak utraty dokładności 🎯 256K kontekstu, stabilne przy 200-300 wywołaniach narzędzi 🎯 Oficjalny przepis i przewodnik wdrożeniowy w zestawie Światowej klasy rozumowanie, teraz dostępne dla wszystkich. 📦 Model: 📚 Przepisy: #vLLM #KimiK2 #LLMInference