🚨A equipa do DeepSeek conseguiu um contexto longo barato para LLMs: um pré-preenchimento ~3,5x mais barato e uma decodificação ~10x mais barata a 128k de contexto na inferência com a mesma qualidade. Não consigo deixar de adorar o único laboratório de IA na fronteira que publica um modelo aberto e uma ótima pesquisa aberta!
Relatório Técnico:
31,61K