高效的终身记忆用于 LLM 代理 LLM 代理需要记忆来处理长时间的对话。目前的处理方式是,记忆要么保留完整的交互历史,导致大量冗余,要么依赖迭代推理来过滤噪声,消耗过多的代币。 这项新研究引入了 SimpleMem,一种基于语义无损压缩的高效记忆框架,最大化信息密度,同时最小化代币消耗。 该框架通过三阶段管道操作。 1) 首先,语义结构压缩应用基于熵的过滤,将原始对话提炼为紧凑的记忆单元,解决共指问题并将相对时间表达(如“上周五”)转换为绝对时间戳。 2) 其次,递归记忆整合逐步将相关记忆整合为更高层次的抽象,将重复条目如“早上8点点了一杯拿铁”转变为“早上定期喝咖啡”的模式。 3) 第三,适应性查询感知检索根据查询复杂性动态调整检索范围。 结果:在 LoCoMo 基准测试中,使用 GPT-4.1-mini,SimpleMem 达到 43.24 F1,超越最强基线 Mem0(34.20)26.4%,同时将每个查询的代币消耗减少到仅 531 个,而全上下文方法为 16,910 个,减少了 30 倍。 他们声称,记忆构建比 Mem0 快 14 倍(每个样本 92.6 秒对比 1350.9 秒),比 A-Mem 快 50 倍。即使是一个 3B 参数模型使用 SimpleMem 也优于使用劣质记忆策略的更大模型。 这项工作表明,结构化语义压缩和自适应检索使 LLM 代理能够保持可靠的长期记忆,而不至于在代币中淹没或牺牲准确性。