🚨El equipo de DeepSeek ha encontrado un contexto largo barato para LLMs: un prellenado ~3.5x más barato y una decodificación ~10x más barata a 128k de contexto en inferencia con la misma calidad. ¡No puedo evitar amar el único laboratorio de IA en la frontera que publica un modelo abierto y una gran investigación abierta!
Informe Técnico:
31,6K