🚀 Suporte ao Dia 0: Kimi K2 Thinking agora rodando no vLLM! Em parceria com a @Kimi_Moonshot, temos o orgulho de oferecer suporte oficial para o modelo de pensamento aberto de última geração com parâmetros 1T, 32B ativos. Fácil implantação em vLLM (versão noturna) com API compatível com OpenAI: O que o torna especial: ⚡ A quantização INT4 nativa → inferência 2× mais rápida 💾 Metade do espaço ocupado pela memória, sem perda de precisão 🎯 256K de contexto, estável em 200-300 chamadas de ferramentas 🎯 Receita oficial e guia de implantação incluídos Raciocínio de classe mundial, agora acessível a todos. 📦 Modelo: 📚 Receitas: #vLLM #KimiK2 #LLMInference