Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
¡Este nuevo artículo es increíble!
Sugiere que los agentes basados en LLM operan de acuerdo con leyes físicas macroscópicas, similar a cómo se comportan las partículas en sistemas termodinámicos.
Y parece que es un descubrimiento que se aplica a través de los modelos.
Los agentes LLM funcionan realmente bien en diferentes dominios, pero no tenemos una teoría que explique por qué.
El comportamiento de estos sistemas a menudo se ve como un producto directo de una ingeniería interna compleja: plantillas de prompts, módulos de memoria y llamadas a herramientas sofisticadas. La dinámica sigue siendo una caja negra.
Esta nueva investigación sugiere que los agentes impulsados por LLM exhiben un equilibrio detallado, una propiedad fundamental de los sistemas de equilibrio en física.
¿Qué significa esto?
Sugiere que los LLM no solo aprenden conjuntos de reglas y estrategias; podrían estar aprendiendo implícitamente una función potencial subyacente que evalúa estados globalmente, capturando algo como "qué tan lejos percibe el LLM que un estado está del objetivo." Esto permite una convergencia dirigida sin quedar atrapado en ciclos repetitivos.
Los investigadores integraron LLM en marcos de agentes y midieron las probabilidades de transición entre estados. Usando un principio de acción mínima de la física, estimaron la función potencial que rige estas transiciones.
Los resultados a través de GPT-5 Nano, Claude-4 y Gemini-2.5-flash: las transiciones de estado satisfacen en gran medida la condición de equilibrio detallado. Esto indica que sus dinámicas generativas exhiben características similares a los sistemas de equilibrio.
En una tarea de ajuste simbólico con 50,228 transiciones de estado a través de 7,484 estados diferentes, el 69.56% de las transiciones de alta probabilidad se movieron hacia un potencial más bajo. La función potencial capturó características a nivel de expresión como complejidad y validez sintáctica sin necesidad de información a nivel de cadena.
Diferentes modelos mostraron diferentes comportamientos en el espectro de exploración-explotación. Claude-4 y Gemini-2.5-flash convergieron rápidamente a unos pocos estados. GPT-5 Nano exploró ampliamente, produciendo 645 salidas válidas diferentes en 20,000 generaciones.
Este podría ser el primer descubrimiento de una ley física macroscópica en la dinámica generativa de LLM que no depende de detalles específicos del modelo. Sugiere que podemos estudiar a los agentes de IA como sistemas físicos con propiedades medibles y predecibles en lugar de solo artefactos de ingeniería.
Artículo:
Aprende a construir agentes de IA efectivos en nuestra academia:

Parte superior
Clasificación
Favoritos
