Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

elvis
Construyendo con agentes de IA @dair_ai • Anterior: Meta AI, Galactica LLM, Elastic, PaperswithCode, PhD • Comparto ideas sobre cómo construir con LLMs y agentes ⬇️ de IA
¡Este nuevo artículo es una locura!
Sugiere que los agentes basados en LLM operan según leyes físicas macroscópicas, de forma similar a cómo se comportan las partículas en sistemas termodinámicos.
Y parece que es un descubrimiento que se aplica a todos los modelos.
Los agentes LLM funcionan muy bien en diferentes dominios, pero no tenemos una teoría clara sobre por qué.
El comportamiento de estos sistemas suele verse como un producto directo de ingeniería interna compleja: plantillas de prompts, módulos de memoria y llamadas sofisticadas a herramientas. La dinámica sigue siendo una caja negra.
Esta nueva investigación sugiere que los agentes impulsados por LLM exhiben un equilibrio detallado, una propiedad fundamental de los sistemas de equilibrio en física.
¿Qué significa esto?
Sugiere que los LLMs no solo aprenden conjuntos de reglas y estrategias; podrían estar aprendiendo implícitamente una función potencial subyacente que evalúa estados globalmente, capturando algo como "hasta qué punto el LLM percibe que un estado está del objetivo." Esto permite una convergencia dirigida sin quedarse atascado en ciclos repetitivos.
Los investigadores integraron LLMs dentro de marcos de agentes y midieron las probabilidades de transición entre estados. Utilizando un principio de mínima acción de la física, estimaron la función potencial que gobierna estas transiciones.
Los resultados en las transiciones de estado GPT-5 Nano, Claude-4 y Gemini-2.5-flash: satisfacen en gran medida la condición detallada de equilibrio. Esto indica que su dinámica generativa exhibe características similares a las de los sistemas de equilibrio.
En una tarea simbólica con 50.228 transiciones de estado en 7.484 estados diferentes, el 69,56% de las transiciones de alta probabilidad se movieron hacia un potencial más bajo. La función potencial capturaba características a nivel de expresión como la complejidad y la validez sintáctica sin necesidad de información a nivel de cadena.
Diferentes modelos mostraron comportamientos distintos en el espectro exploración-explotación. Claude-4 y Gemini-2.5-flash convergieron rápidamente a unos pocos estados. GPT-5 Nano exploró ampliamente, produciendo 645 salidas válidas diferentes en 20.000 generaciones.
Esto podría ser el primer descubrimiento de una ley física macroscópica en dinámica generativa de LLM que no depende de detalles específicos del modelo. Sugiere que podemos estudiar agentes de IA como sistemas físicos con propiedades medibles y predecibles, en lugar de solo artefactos de ingeniería.
Papel:
Aprende a crear agentes de IA efectivos en nuestra academia:

12.52K
¡Esto está pasando a toda velocidad!
Empecé a darme cuenta de esto al trasladar todos mis flujos de trabajo a Claude Code Skills.
Al principio doloroso, pero luego de repente se movía a velocidades inimaginables.
He oído que más empresas adoptan habilidades, lo que acelera más las cosas.
¡Buena lectura!

24.82K
NUEVA investigación de Apple.
Si lo piensas, los sistemas RAG están fundamentalmente rotos. La recuperación y generación se optimizan por separado, la recuperación selecciona documentos basándose en similitudes superficiales, mientras que los generadores producen respuestas sin retroalimentación sobre qué información realmente se necesita.
Hay un desajuste arquitectónico.
Los retrievers densos clasifican los documentos en el espacio de incrustación mientras que los generadores consumen texto en bruto. Esto crea espacios de representación inconsistentes que impiden la optimización de extremo a extremo, procesamiento redundante de texto que provoca desbordamiento de contexto y codificación duplicada tanto para la recuperación como para la generación.
Esta nueva investigación introduce CLaRa, un marco unificado que realiza recuperación y generación sobre representaciones continuas de documentos compartidas.
Codifican documentos que antes eran representaciones compactas de memoria que cumplen ambos propósitos. En lugar de mantener incrustaciones y texto en bruto separados, los documentos se comprimen en vectores densos sobre los que tanto el recuperador como el generador operan directamente.
Esto permite algo que antes era imposible: gradientes que fluyen desde el generador de vuelta al recuperador a través de un selector diferenciable top-k usando estimación Straight-Through. El retriever aprende qué documentos realmente mejoran la generación de respuestas en lugar de depender de la similitud superficial.
Para que la compresión funcione, introducen SCP, un marco de preentrenamiento que sintetiza pares de QA y parafraseas para enseñar al compresor qué información es esencial. La QA simple captura hechos atómicos, la QA compleja promueve el razonamiento relacional y las paráfrasis preservan la semántica mientras alteran la forma superficial.
Resultados:
Con compresión de 16x, CLaRa-Mistral-7B supera al DRO-Mistral-7B basado en texto en NQ (51.41 frente a 51.01 F1) y 2Wiki (47.18 frente a 43.65 F1) mientras procesa mucho menos contexto. A compresión 4x, supera las líneas base de texto sin comprimir en un 2,36% de media en Mistral-7B.
Lo más notable es que CLaRa entrenado con solo una supervisión débil de la predicción del siguiente token supera a los recuperadores totalmente supervisados con etiquetas de relevancia de verdad en el terreno. En HotpotQA, alcanza un 96,21% de Recall@5, superando a BGE-Reranker (85,93%) por más de 10 puntos a pesar de no utilizar datos de relevancia anotados.
Una compresión suave bien entrenada puede retener la información esencial del razonamiento mientras reduce sustancialmente la longitud de entrada. Las representaciones comprimidas filtran contenido irrelevante y centran el generador en el contexto relevante para el razonamiento, lo que conduce a una mejor generalización que las entradas de texto en bruto.
Una lectura excelente para desarrolladores de IA. (lo marca)
Papel:
Aprende a construir con agentes RAG e IA en mi academia:

30.45K
Populares
Ranking
Favoritas
