Este novo artigo é incrível! Sugere que agentes baseados em LLM operam de acordo com leis físicas macroscópicas, semelhante ao comportamento das partículas em sistemas termodinâmicos. E parece que é uma descoberta que se aplica a diferentes modelos. Os agentes LLM funcionam muito bem em diferentes domínios, mas não temos uma teoria para explicar o porquê. O comportamento desses sistemas é frequentemente visto como um produto direto de uma engenharia interna complexa: modelos de prompt, módulos de memória e chamadas de ferramentas sofisticadas. A dinâmica permanece uma caixa preta. Esta nova pesquisa sugere que agentes impulsionados por LLM exibem equilíbrio detalhado, uma propriedade fundamental de sistemas de equilíbrio na física. O que isso significa? Sugere que os LLMs não apenas aprendem conjuntos de regras e estratégias; eles podem estar aprendendo implicitamente uma função potencial subjacente que avalia estados globalmente, capturando algo como "quão longe o LLM percebe um estado do objetivo." Isso permite uma convergência direcionada sem ficar preso em ciclos repetitivos. Os pesquisadores incorporaram LLMs dentro de estruturas de agentes e mediram as probabilidades de transição entre estados. Usando um princípio de menor ação da física, estimaram a função potencial que governa essas transições. Os resultados entre GPT-5 Nano, Claude-4 e Gemini-2.5-flash: as transições de estado satisfazem amplamente a condição de equilíbrio detalhado. Isso indica que suas dinâmicas gerativas exibem características semelhantes a sistemas de equilíbrio. Em uma tarefa de ajuste simbólico com 50.228 transições de estado em 7.484 estados diferentes, 69,56% das transições de alta probabilidade moveram-se em direção a um potencial mais baixo. A função potencial capturou características em nível de expressão, como complexidade e validade sintática, sem precisar de informações em nível de string. Modelos diferentes mostraram comportamentos diferentes no espectro de exploração-exploração. Claude-4 e Gemini-2.5-flash convergiram rapidamente para alguns estados. O GPT-5 Nano explorou amplamente, produzindo 645 saídas válidas diferentes em 20.000 gerações. Isso pode ser a primeira descoberta de uma lei física macroscópica nas dinâmicas gerativas de LLM que não depende de detalhes específicos do modelo. Sugere que podemos estudar agentes de IA como sistemas físicos com propriedades mensuráveis e previsíveis, em vez de apenas artefatos de engenharia. Artigo: Aprenda a construir agentes de IA eficazes em nossa academia: