Memoria eficiente de por vida para agentes LLM Los agentes LLM necesitan memoria para manejar conversaciones largas. La forma en que esto se maneja hoy es que la memoria o bien conserva historiales completos de interacción, lo que lleva a una redundancia masiva, o depende del razonamiento iterativo para filtrar el ruido, consumiendo tokens excesivos. Esta nueva investigación introduce SimpleMem, un marco de memoria eficiente basado en compresión semántica sin pérdidas que maximiza la densidad de información minimizando el consumo de tokens. El marco opera a través de una tubería de tres etapas. 1) Primero, la compresión estructurada semántica aplica un filtrado consciente de la entropía para destilar el diálogo en bruto en unidades de memoria compactas, resolviendo coreferencias y convirtiendo expresiones de tiempo relativo ("viernes pasado") en marcas de tiempo absolutas. 2) Segundo, la Consolidación de la Memoria Recursiva integra de forma incremental recuerdos relacionados en abstracciones de mayor nivel, convirtiendo entradas repetitivas como "pedí un latte a las 8 de la mañana" en patrones como "toma café regularmente por la mañana." 3) Tercero, la recuperación adaptativa consciente de consultas ajusta dinámicamente el alcance de recuperación en función de la complejidad de la consulta. Los resultados: En el benchmark de LoCoMo con GPT-4.1-mini, SimpleMem logra 43,24 F1, superando el Mem0 base más fuerte (34,20) en un 26,4%, mientras reduce el consumo de tokens a solo 531 tokens por consulta frente a 16.910 para enfoques de contexto completo, una reducción de 30 veces. Afirman que la construcción de memoria es 14 veces más rápida que la de Mem0 (92,6s frente a 1350,9s por muestra) y 50 veces más rápida que A-Mem. Incluso un modelo de parámetros 3B con SimpleMem supera a modelos más grandes usando estrategias de memoria inferiores. Este trabajo muestra que la compresión semántica estructurada y la recuperación adaptativa permiten a los agentes LLM mantener una memoria fiable a largo plazo sin ahogarse en tokens ni sacrificar precisión.