🚨Tim DeepSeek memecahkan konteks panjang yang murah untuk LLM: pengisian awal ~3,5x lebih murah dan ~10x lebih murah dekode pada konteks 128k pada inferensi dengan kualitas yang sama. Mau tidak mau menyukai satu-satunya lab AI perbatasan yang menerbitkan model terbuka dan penelitian terbuka yang hebat!
Laporan Teknologi:
31,59K