Powtarzanie swojego zapytania może znacznie zwiększyć dokładność LLM. Google właśnie pokazało trywialną zmianę, która wygrywa 47 z 70 testów. Bez dodatkowych tokenów. Bez dodatkowego opóźnienia. Zero zgłoszonych strat. 𝗣𝗿𝗼𝗺𝗽𝘁 𝗿𝗲𝗽𝗲𝘁𝗶𝘁𝗶𝗼𝗻 𝗶𝗺𝗽𝗿𝗼𝘃𝗲𝘀 𝗮𝗰𝗰𝘂𝗿𝗮𝗰𝘆 Metoda jest prosta. Wyślij dokładnie ten sam input dwa razy, jeden po drugim. Modele językowe odczytują tokeny w kolejności. Wczesne części są przetwarzane bez pełnego kontekstu. Podczas drugiego przejścia pełny obraz już istnieje. Prognozy stają się bardziej stabilne i dokładniejsze. 𝗜𝘁 𝘄𝗼𝗿𝗸𝘀 𝗮𝗰𝗿𝗼𝘀𝘀 𝗺𝗮𝗷𝗼𝗿 𝗺𝗼𝗱𝗲𝗹𝘀 Artykuł testuje popularne systemy na dużą skalę. Każdy oceniany model poprawia się bez włączonego rozumowania. Kluczowe wyniki: > 47 zwycięstw na 70 benchmarków > Zero regresji dokładności > Brak wzrostu długości wyjścia > Brak mierzalnych kosztów opóźnienia 𝗜𝘁 𝗮𝗹𝗹𝗼𝘄𝘀 𝗱𝗿𝗼𝗽-𝗶𝗻 𝗱𝗲𝗽𝗹𝗼𝘆𝗺𝗲𝗻𝘁 Wyniki zachowują ten sam format. Istniejące pipeline'y pozostają niezmienione. Uzyskujesz wyższą dokładność, kopiując i wklejając raz.