Het herhalen van je prompt kan LLM's aanzienlijk nauwkeuriger maken. Google toonde net een triviale wijziging die 47 van de 70 tests wint. Geen extra tokens. Geen toegevoegde latentie. Geen verliezen gerapporteerd. 𝗛𝗲𝗿𝗵𝗲𝗻𝗱𝗲𝗿𝗲𝗻 𝗶𝘀 𝗲𝗲𝗻 𝗳𝗮𝗰𝘁𝗼𝗿 𝗳𝗼𝗿 𝗻𝗮𝗮𝗺𝗸𝗼𝗻𝗱𝗶𝘁𝗶𝗼𝗻𝗲𝗹𝗲 𝗻𝗮𝗮𝗰𝗵𝘁𝗶𝗴𝗵𝗲𝗶𝗱 De methode is eenvoudig. Stuur exact dezelfde invoer twee keer, achter elkaar. Taalmodellen lezen tokens in volgorde. Vroege delen worden verwerkt zonder volledige context. Bij de tweede keer is het volledige plaatje al aanwezig. Voorspellingen worden stabieler en nauwkeuriger. 𝗜𝘁 𝘄𝗼𝗿𝗸𝘀 𝗮𝗰𝗿𝗼𝘀𝘀 𝗺𝗮𝗷𝗼𝗿 𝗺𝗼𝗱𝗲𝗹𝘀 Het paper test populaire systemen op grote schaal. Elk geëvalueerd model verbetert zonder ingeschakelde redeneervaardigheden. Belangrijke resultaten: > 47 overwinningen uit 70 benchmarks > Geen nauwkeurigheidsregressies > Geen toename in uitvoerlengte > Geen meetbare latentie kosten 𝗜𝘁 𝗮𝗹𝗹𝗼𝘄𝘀 𝗱𝗿𝗼𝗽-𝗶𝗻 𝗱𝗲𝗽𝗹𝗼𝘆𝗺𝗲𝗻𝘁 Uitgangen behouden hetzelfde formaat. Bestaande pijplijnen blijven onveranderd. Je krijgt hogere nauwkeurigheid door één keer te kopiëren en plakken.