Å gjenta prompten din kan gjøre LLM-er betydelig mer nøyaktige. Google viste nettopp en triviell endring som vinner 47 av 70 tester. Ingen ekstra tokens. Ingen ekstra forsinkelse. Null tap rapportert. Rask repetisjon forbedrer nøyaktigheten Metoden er enkel. Send nøyaktig samme input to ganger, rett etter hverandre. Språkmodeller leser tokens i rekkefølge. Tidlige deler blir behandlet uten full kontekst. Ved andre gjennomgang finnes hele bildet allerede. Prediksjonene blir mer stabile og mer nøyaktige. Det fungerer på tvers av store modeller Artikkelen tester populære systemer i stor skala. Hver evaluert modell forbedres uten at resonnement er aktivert. Nøkkelresultater: > 47 seire av 70 referansepunkter > Regresjoner med null nøyaktighet > Ingen økning i utgangslengde > Ingen målbar forsinkelseskostnad Det tillater drop-in utrulling Utgangene beholder samme format. Eksisterende rørledninger forblir uendret. Du får høyere nøyaktighet ved å kopiere og lime inn én gang.