🚀 Soporte del día 0: ¡Kimi K2 Thinking ahora se ejecuta en vLLM! En asociación con @Kimi_Moonshot, estamos orgullosos de brindar soporte oficial para el modelo de pensamiento abierto de última generación con parámetros 1T, 32B activos. Fácil implementación en vLLM (versión nocturna) con API compatible con OpenAI: Lo que lo hace especial: ⚡ La cuantificación INT4 nativa → una inferencia 2× más rápida 💾 La mitad de la huella de memoria, sin pérdida de precisión 🎯 Contexto de 256K, estable en 200-300 llamadas a herramientas 🎯 Receta oficial y guía de despliegue incluida Razonamiento de clase mundial, ahora accesible para todos. 📦 Modelo: 📚 Recetas: #vLLM #KimiK2 #LLMInference