🚀 Soporte del Día 0: ¡Kimi K2 Thinking ahora funcionando en vLLM! En asociación con @Kimi_Moonshot, nos enorgullece ofrecer soporte oficial para el modelo de pensamiento de última generación con 1T de parámetros, 32B activos. Despliegue fácil en vLLM (versión nocturna) con API compatible con OpenAI: Lo que lo hace especial: ⚡ Cuantización nativa INT4 → 2× inferencia más rápida 💾 La mitad de la huella de memoria, sin pérdida de precisión 🎯 Contexto de 256K, estable en 200-300 llamadas a herramientas 🎯 Receta oficial y guía de despliegue incluidas Razonamiento de clase mundial, ahora accesible para todos. 📦 Modelo: 📚 Recetas: #vLLM #KimiK2 #LLMInference