Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
¡Este nuevo artículo es una locura!
Sugiere que los agentes basados en LLM operan según leyes físicas macroscópicas, de forma similar a cómo se comportan las partículas en sistemas termodinámicos.
Y parece que es un descubrimiento que se aplica a todos los modelos.
Los agentes LLM funcionan muy bien en diferentes dominios, pero no tenemos una teoría clara sobre por qué.
El comportamiento de estos sistemas suele verse como un producto directo de ingeniería interna compleja: plantillas de prompts, módulos de memoria y llamadas sofisticadas a herramientas. La dinámica sigue siendo una caja negra.
Esta nueva investigación sugiere que los agentes impulsados por LLM exhiben un equilibrio detallado, una propiedad fundamental de los sistemas de equilibrio en física.
¿Qué significa esto?
Sugiere que los LLMs no solo aprenden conjuntos de reglas y estrategias; podrían estar aprendiendo implícitamente una función potencial subyacente que evalúa estados globalmente, capturando algo como "hasta qué punto el LLM percibe que un estado está del objetivo." Esto permite una convergencia dirigida sin quedarse atascado en ciclos repetitivos.
Los investigadores integraron LLMs dentro de marcos de agentes y midieron las probabilidades de transición entre estados. Utilizando un principio de mínima acción de la física, estimaron la función potencial que gobierna estas transiciones.
Los resultados en las transiciones de estado GPT-5 Nano, Claude-4 y Gemini-2.5-flash: satisfacen en gran medida la condición detallada de equilibrio. Esto indica que su dinámica generativa exhibe características similares a las de los sistemas de equilibrio.
En una tarea simbólica con 50.228 transiciones de estado en 7.484 estados diferentes, el 69,56% de las transiciones de alta probabilidad se movieron hacia un potencial más bajo. La función potencial capturaba características a nivel de expresión como la complejidad y la validez sintáctica sin necesidad de información a nivel de cadena.
Diferentes modelos mostraron comportamientos distintos en el espectro exploración-explotación. Claude-4 y Gemini-2.5-flash convergieron rápidamente a unos pocos estados. GPT-5 Nano exploró ampliamente, produciendo 645 salidas válidas diferentes en 20.000 generaciones.
Esto podría ser el primer descubrimiento de una ley física macroscópica en dinámica generativa de LLM que no depende de detalles específicos del modelo. Sugiere que podemos estudiar agentes de IA como sistemas físicos con propiedades medibles y predecibles, en lugar de solo artefactos de ingeniería.
Papel:
Aprende a crear agentes de IA efectivos en nuestra academia:

Populares
Ranking
Favoritas
