Повторение вашего запроса может значительно повысить точность LLM. Google только что показал тривиальное изменение, которое выигрывает 47 из 70 тестов. Без дополнительных токенов. Без увеличения задержки. Никаких потерь не зафиксировано. 𝗥𝗲𝗽𝗲𝘁𝗶𝘁𝗶𝗼𝗻 𝗼𝗳 𝗽𝗿𝗼𝗺𝗽𝘁𝘀 𝗶𝗺𝗽𝗿𝗼𝘃𝗲𝘀 𝗮𝗰𝗰𝘂𝗿𝗮𝗰𝘆 Метод прост. Отправьте точно такой же ввод дважды, подряд. Языковые модели читают токены по порядку. Ранние части обрабатываются без полного контекста. При втором проходе полная картина уже существует. Прогнозы становятся более стабильными и точными. 𝗜𝘁 𝘄𝗼𝗿𝗸𝘀 𝗮𝗰𝗿𝗼𝘀𝘀 𝗺𝗮𝗷𝗼𝗿 𝗺𝗼𝗱𝗲𝗹𝘀 Статья тестирует популярные системы в большом масштабе. Каждая оцененная модель улучшается без включенного рассуждения. Ключевые результаты: > 47 побед из 70 бенчмарков > Никаких регрессий точности > Без увеличения длины вывода > Без измеряемых затрат на задержку 𝗜𝘁 𝗮𝗹𝗹𝗼𝘄𝘀 𝗱𝗿𝗼𝗽-𝗶𝗻 𝗱𝗲𝗽𝗹𝗼𝘆𝗺𝗲𝗻𝘁 Выводы сохраняют тот же формат. Существующие конвейеры остаются неизменными. Вы получаете более высокую точность, просто скопировав и вставив один раз.