热门话题
#
Bonk 生态迷因币展现强韧势头
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
#
Solana 新代币发射平台 Boop.Fun 风头正劲
高效的终身记忆用于 LLM 代理
LLM 代理需要记忆来处理长时间的对话。目前的处理方式是,记忆要么保留完整的交互历史,导致大量冗余,要么依赖迭代推理来过滤噪声,消耗过多的代币。
这项新研究引入了 SimpleMem,一种基于语义无损压缩的高效记忆框架,最大化信息密度,同时最小化代币消耗。
该框架通过三阶段管道操作。
1) 首先,语义结构压缩应用基于熵的过滤,将原始对话提炼为紧凑的记忆单元,解决共指问题并将相对时间表达(如“上周五”)转换为绝对时间戳。
2) 其次,递归记忆整合逐步将相关记忆整合为更高层次的抽象,将重复条目如“早上8点点了一杯拿铁”转变为“早上定期喝咖啡”的模式。
3) 第三,适应性查询感知检索根据查询复杂性动态调整检索范围。
结果:在 LoCoMo 基准测试中,使用 GPT-4.1-mini,SimpleMem 达到 43.24 F1,超越最强基线 Mem0(34.20)26.4%,同时将每个查询的代币消耗减少到仅 531 个,而全上下文方法为 16,910 个,减少了 30 倍。
他们声称,记忆构建比 Mem0 快 14 倍(每个样本 92.6 秒对比 1350.9 秒),比 A-Mem 快 50 倍。即使是一个 3B 参数模型使用 SimpleMem 也优于使用劣质记忆策略的更大模型。
这项工作表明,结构化语义压缩和自适应检索使 LLM 代理能够保持可靠的长期记忆,而不至于在代币中淹没或牺牲准确性。

热门
排行
收藏
