🚨Zespół DeepSeek opracował tani długi kontekst dla LLM: około 3,5 razy tańszy prefill i około 10 razy tańszy dekodowanie przy 128k kontekście podczas wnioskowania z tą samą jakością. Nie mogę się powstrzymać od miłości do jedynego laboratorium AI na granicy, które publikuje otwarty model i świetne badania otwarte!
Raport techniczny:
31,6K