🚨DeepSeek-teamet knäckte billig lång kontext för LLM:er: en ~3,5 gånger billigare förfyllning och ~10 gånger billigare avkodning vid 128k kontext vid inferens med samma kvalitet. Kan inte låta bli att älska det enda avancerade AI-labbet som publicerar en öppen modell och fantastisk öppen forskning!
Teknisk rapport:
38,13K