高效的終身記憶用於 LLM 代理 LLM 代理需要記憶來處理長時間的對話。目前的處理方式是,記憶要麼保留完整的互動歷史,導致大量冗餘,要麼依賴迭代推理來過濾噪音,消耗過多的標記。 這項新研究介紹了 SimpleMem,一個基於語義無損壓縮的高效記憶框架,最大化信息密度,同時最小化標記消耗。 該框架通過三個階段的管道運作。 1) 首先,語義結構壓縮應用基於熵的過濾,將原始對話提煉成緊湊的記憶單元,解決共指問題並將相對時間表達(如「上週五」)轉換為絕對時間戳。 2) 其次,遞歸記憶整合逐步將相關記憶整合為更高層次的抽象,將重複的條目(如「早上 8 點點了一杯拿鐵」)轉變為模式(如「早上定期喝咖啡。」) 3) 第三,自適應查詢感知檢索根據查詢的複雜性動態調整檢索範圍。 結果:在 LoCoMo 基準測試中,使用 GPT-4.1-mini,SimpleMem 達到 43.24 F1,超越最強基準 Mem0(34.20)26.4%,同時將每次查詢的標記消耗減少到僅 531 個,相較於全上下文方法的 16,910,減少了 30 倍。 他們聲稱記憶構建比 Mem0 快 14 倍(每個樣本 92.6 秒對 1350.9 秒),比 A-Mem 快 50 倍。即使是 3B 參數模型使用 SimpleMem 也超越了使用劣質記憶策略的更大模型。 這項工作顯示,結構化的語義壓縮和自適應檢索使 LLM 代理能夠保持可靠的長期記憶,而不會淹沒在標記中或犧牲準確性。