🚨Das DeepSeek-Team hat günstige lange Kontexte für LLMs geknackt: ein ~3,5x günstigeres Prefill und ~10x günstigere Decodierung bei 128k Kontext während der Inferenz mit der gleichen Qualität. Kann nicht anders, als das einzige Grenz-AI-Labor zu lieben, das ein offenes Modell und großartige offene Forschung veröffentlicht!
Technischer Bericht:
31,58K