🚨Echipa DeepSeek a spart un context lung ieftin pentru LLM-uri: o preumplere ~3,5 ori mai ieftină și o decodare de ~10 ori mai ieftină la context de 128k la inferență cu aceeași calitate. Nu pot să nu iubesc singurul laborator AI de frontieră care publică un model deschis și o cercetare deschisă excelentă!
Raport tehnic:
31,6K