重複你的提示可以使 LLMs 顯著提高準確性。 谷歌剛剛展示了一個微不足道的改變,贏得了 70 次測試中的 47 次。 沒有額外的標記。沒有增加的延遲。報告的損失為零。 𝗽𝗿𝗼𝗺𝗽𝘁 𝗿𝗲𝗽𝗲𝘁𝗶𝘁𝗶𝗼𝗻 𝗶𝗺𝗽𝗿𝗼𝘃𝗲𝘀 𝗮𝗰𝗰𝘂𝗿𝗮𝗰𝘆 這個方法很簡單。將完全相同的輸入連續發送兩次。 語言模型按順序讀取標記。 早期部分在沒有完整上下文的情況下被處理。 在第二次通過時,完整的畫面已經存在。 預測變得更加穩定和準確。 𝗶𝘁 𝘄𝗼𝗿𝗸𝘀 𝗮𝗰𝗿𝗼𝘀𝘀 𝗺𝗮𝗷𝗼𝗿 𝗺𝗼𝗱𝗲𝗹𝘀 這篇論文在大規模上測試了流行系統。 每個評估的模型在未啟用推理的情況下都得到了改善。 關鍵結果: > 70 個基準中贏得 47 次 > 零準確性回退 > 輸出長度沒有增加 > 沒有可測量的延遲成本 𝗶𝘁 𝗮𝗹𝗹𝗼𝘄𝘀 𝗱𝗿𝗼𝗽-𝗶𝗻 𝗱𝗲𝗽𝗹𝗼𝘆𝗺𝗲𝗻𝘁 輸出保持相同格式。現有管道保持不變。 通過複製和粘貼一次,你可以獲得更高的準確性。