Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Questo nuovo documento è incredibile!
Suggerisce che gli agenti basati su LLM operano secondo leggi fisiche macroscopiche, simili a come si comportano le particelle nei sistemi termodinamici.
E sembra che sia una scoperta che si applica a diversi modelli.
Gli agenti LLM funzionano davvero bene in diversi domini, ma non abbiamo una teoria su perché.
Il comportamento di questi sistemi è spesso visto come un prodotto diretto di ingegneria interna complessa: modelli di prompt, moduli di memoria e chiamate a strumenti sofisticati. La dinamica rimane una scatola nera.
Questa nuova ricerca suggerisce che gli agenti guidati da LLM mostrano un bilanciamento dettagliato, una proprietà fondamentale dei sistemi di equilibrio in fisica.
Cosa significa questo?
Suggerisce che gli LLM non imparano solo insiemi di regole e strategie; potrebbero implicitamente apprendere una funzione potenziale sottostante che valuta gli stati globalmente, catturando qualcosa come "quanto lontano l'LLM percepisce uno stato dal traguardo." Questo consente una convergenza diretta senza rimanere bloccati in cicli ripetitivi.
I ricercatori hanno incorporato gli LLM all'interno di framework per agenti e hanno misurato le probabilità di transizione tra stati. Utilizzando un principio di azione minima dalla fisica, hanno stimato la funzione potenziale che governa queste transizioni.
I risultati tra GPT-5 Nano, Claude-4 e Gemini-2.5-flash: le transizioni di stato soddisfano in gran parte la condizione di bilanciamento dettagliato. Questo indica che le loro dinamiche generative mostrano caratteristiche simili a sistemi di equilibrio.
In un compito di adattamento simbolico con 50.228 transizioni di stato attraverso 7.484 stati diversi, il 69,56% delle transizioni ad alta probabilità si è mosso verso un potenziale più basso. La funzione potenziale ha catturato caratteristiche a livello di espressione come complessità e validità sintattica senza necessitare di informazioni a livello di stringa.
Modelli diversi hanno mostrato comportamenti diversi nello spettro esplorazione-sfruttamento. Claude-4 e Gemini-2.5-flash sono convergenti rapidamente verso pochi stati. GPT-5 Nano ha esplorato ampiamente, producendo 645 output validi diversi in 20.000 generazioni.
Questa potrebbe essere la prima scoperta di una legge fisica macroscopica nelle dinamiche generative degli LLM che non dipende da dettagli specifici del modello. Suggerisce che possiamo studiare gli agenti AI come sistemi fisici con proprietà misurabili e prevedibili piuttosto che semplici artefatti ingegneristici.
Documento:
Impara a costruire agenti AI efficaci nella nostra accademia:

Principali
Ranking
Preferiti
