🚨Het DeepSeek-team heeft goedkope lange context voor LLM's gekraakt: een ~3,5x goedkopere prefill en ~10x goedkopere decode bij 128k context tijdens inferentie met dezelfde kwaliteit. Ik kan niet anders dan houden van het enige frontier AI-lab dat een open model en geweldig open onderzoek publiceert!
Technisch Rapport:
31,6K