Ten nowy artykuł jest szalony! Sugeruje, że agenci oparte na LLM działają zgodnie z makroskopowymi prawami fizyki, podobnie jak cząstki w systemach termodynamicznych. I wygląda na to, że to odkrycie ma zastosowanie w różnych modelach. Agenci LLM działają naprawdę dobrze w różnych dziedzinach, ale nie mamy teorii wyjaśniającej dlaczego. Zachowanie tych systemów często postrzegane jest jako bezpośredni produkt skomplikowanego wewnętrznego inżynierii: szablony zapytań, moduły pamięci i zaawansowane wywoływanie narzędzi. Dynamika pozostaje czarną skrzynką. Te nowe badania sugerują, że agenci napędzani przez LLM wykazują szczegółową równowagę, fundamentalną właściwość systemów równowagi w fizyce. Co to oznacza? Sugeruje, że LLM nie tylko uczą się zestawów reguł i strategii; mogą nieświadomie uczyć się podstawowej funkcji potencjału, która ocenia stany globalnie, uchwycając coś w rodzaju "jak daleko LLM postrzega dany stan od celu." To umożliwia ukierunkowaną konwergencję bez utknięcia w powtarzalnych cyklach. Badacze osadzili LLM w ramach agentów i zmierzyli prawdopodobieństwa przejść między stanami. Używając zasady najmniejszej akcji z fizyki, oszacowali funkcję potencjału rządzącą tymi przejściami. Wyniki dla GPT-5 Nano, Claude-4 i Gemini-2.5-flash: przejścia stanów w dużej mierze spełniają warunek szczegółowej równowagi. To wskazuje, że ich dynamika generatywna wykazuje cechy podobne do systemów równowagi. W zadaniu dopasowania symboli z 50,228 przejściami stanów w 7,484 różnych stanach, 69,56% przejść o wysokim prawdopodobieństwie zmieniało się w kierunku niższego potencjału. Funkcja potencjału uchwyciła cechy na poziomie wyrażenia, takie jak złożoność i poprawność składniowa, bez potrzeby informacji na poziomie ciągu. Różne modele wykazały różne zachowania na spektrum eksploracji-eksploatacji. Claude-4 i Gemini-2.5-flash szybko konwergowały do kilku stanów. GPT-5 Nano szeroko eksplorował, produkując 645 różnych poprawnych wyników w 20,000 generacjach. To może być pierwsze odkrycie makroskopowego prawa fizycznego w dynamice generatywnej LLM, które nie zależy od szczegółów konkretnego modelu. Sugeruje, że możemy badać agentów AI jako systemy fizyczne z mierzalnymi, przewidywalnymi właściwościami, a nie tylko jako artefakty inżynieryjne. Artykuł: Naucz się budować skuteczne agenty AI w naszej akademii: