Эта новая статья просто потрясающая! В ней предполагается, что агенты на основе LLM действуют в соответствии с макроскопическими физическими законами, аналогично тому, как ведут себя частицы в термодинамических системах. И похоже, что это открытие применимо ко всем моделям. Агенты LLM действительно хорошо работают в различных областях, но у нас нет теории, объясняющей, почему. Поведение этих систем часто рассматривается как прямой результат сложной внутренней инженерии: шаблоны подсказок, модули памяти и сложные вызовы инструментов. Динамика остается черным ящиком. Это новое исследование предполагает, что агенты на основе LLM демонстрируют детальный баланс, фундаментальное свойство равновесных систем в физике. Что это значит? Это предполагает, что LLM не просто изучают наборы правил и стратегии; они могут неявно изучать основную потенциальную функцию, которая оценивает состояния глобально, захватывая что-то вроде "насколько далеко LLM воспринимает состояние от цели." Это позволяет направленной сходимости без застревания в повторяющихся циклах. Исследователи встроили LLM в агентные структуры и измерили вероятности переходов между состояниями. Используя принцип наименьшего действия из физики, они оценили потенциальную функцию, управляющую этими переходами. Результаты для GPT-5 Nano, Claude-4 и Gemini-2.5-flash: переходы состояний в значительной степени удовлетворяют условию детального баланса. Это указывает на то, что их генеративная динамика демонстрирует характеристики, аналогичные равновесным системам. В задаче символической подгонки с 50,228 переходами состояний через 7,484 различных состояний 69.56% высоковероятных переходов двигались к более низкому потенциалу. Потенциальная функция захватывала характеристики уровня выражения, такие как сложность и синтаксическая корректность, без необходимости в информации на уровне строк. Разные модели показали разные поведения на спектре исследования-эксплуатации. Claude-4 и Gemini-2.5-flash быстро сходились к нескольким состояниям. GPT-5 Nano широко исследовал, производя 645 различных допустимых выходов за 20,000 генераций. Это может быть первым открытием макроскопического физического закона в генеративной динамике LLM, который не зависит от конкретных деталей модели. Это предполагает, что мы можем изучать AI-агентов как физические системы с измеримыми, предсказуемыми свойствами, а не просто как инженерные артефакты. Статья: Научитесь строить эффективные AI-агенты в нашей академии: