Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Dit nieuwe paper is geweldig!
Het suggereert dat LLM-gebaseerde agenten opereren volgens macroscopische natuurwetten, vergelijkbaar met hoe deeltjes zich gedragen in thermodynamische systemen.
En het lijkt erop dat het een ontdekking is die op verschillende modellen van toepassing is.
LLM-agenten werken echt goed in verschillende domeinen, maar we hebben geen theorie voor waarom.
Het gedrag van deze systemen wordt vaak gezien als een direct product van complexe interne engineering: prompt-sjablonen, geheugenelementen en geavanceerd toolgebruik. De dynamiek blijft een black box.
Dit nieuwe onderzoek suggereert dat LLM-gedreven agenten een gedetailleerd evenwicht vertonen, een fundamentele eigenschap van evenwichtssystemen in de natuurkunde.
Wat betekent dit?
Het suggereert dat LLM's niet alleen regels en strategieën leren; ze zouden impliciet een onderliggende potentiaalfunctie kunnen leren die toestanden globaal evalueert, iets vastleggend als "hoe ver de LLM een toestand van het doel waarneemt." Dit maakt gerichte convergentie mogelijk zonder vast te komen zitten in repetitieve cycli.
De onderzoekers hebben LLM's ingebed in agentenframeworks en de overgangswaarschijnlijkheden tussen toestanden gemeten. Met behulp van een principe van de minste actie uit de natuurkunde, schatten ze de potentiaalfunctie die deze overgangen beheerst.
De resultaten over GPT-5 Nano, Claude-4 en Gemini-2.5-flash: toestandovergangen voldoen grotendeels aan de gedetailleerde evenwichtsvoorwaarde. Dit geeft aan dat hun generatieve dynamiek kenmerken vertoont die vergelijkbaar zijn met evenwichtssystemen.
In een symbolische fittingtaak met 50.228 toestandovergangen over 7.484 verschillende toestanden, bewoog 69,56% van de hoog-waarschijnlijkheidsovergangen naar lagere potentiaal. De potentiaalfunctie ving expressieniveau kenmerken zoals complexiteit en syntactische geldigheid zonder string-niveau informatie nodig te hebben.
Verschillende modellen vertoonden verschillende gedragingen op het exploratie-exploitatie spectrum. Claude-4 en Gemini-2.5-flash convergeerden snel naar een paar toestanden. GPT-5 Nano verkende breed, wat resulteerde in 645 verschillende geldige uitkomsten in 20.000 generaties.
Dit zou de eerste ontdekking kunnen zijn van een macroscopische natuurwet in LLM generatieve dynamiek die niet afhankelijk is van specifieke modeldetails. Het suggereert dat we AI-agenten kunnen bestuderen als fysieke systemen met meetbare, voorspelbare eigenschappen in plaats van alleen maar engineering-artikelen.
Paper:
Leer effectieve AI-agenten te bouwen in onze academie:

Boven
Positie
Favorieten
