熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁
RAG 並非終點,AI Agent 的記憶才是未來方向。
用最簡單的方式拆解下這個進化過程:
RAG (2020-2023):
- 單次檢索信息,生成回覆
- 沒有決策,只是提取和回答
- 問題:經常提取到無關信息
Agentic RAG:
- Agent 決定是否需要檢索
- Agent 選擇哪個數據源來查詢
- Agent 驗證結果是否有用
- 問題:仍然是只讀,無法從交互中學習
AI 記憶:
- 讀取和寫入外部知識
- 從過去的對話中學習
- 記住用戶偏好、歷史背景
- 實現真正的個性化
這個心智模型很簡單:
↳ RAG:只讀,一次性
↳ Agentic RAG:通過工具調用實現只讀
↳ Agent Memory:通過工具調用實現讀寫
Agent 記憶的強大之處在於:Agent 現在可以“記住”事情了——用戶偏好、過去的對話、重要日期,所有這些都可以存儲起來,供未來交互使用。
這解鎖了更大的可能性:持續學習。
Agent 不再被凍結在訓練時,而是可以從每次交互中積累知識,隨著時間的推移不斷改進,無需重新訓練。
記憶是靜態模型和真正自適應 AI 系統之間的橋樑。
當然,並非一帆風順。
記憶引入了 RAG 從未有過的挑戰:記憶損壞、決定忘記什麼,以及管理多種記憶類型(程序性、情景性和語義性)。
從頭開始解決這些問題很難。
如果你想給你的 Agent 賦予類似人類的記憶,可以看看 Graphiti,一個用於構建實時知識圖譜的開源框架。
鏈接在下一條推文中!
內容翻譯於 @akshay_pachaar 的精彩分享

9 小時前
RAG 從來不是最終目標。
AI 代理的記憶是未來的一切。讓我以最簡單的方式來解釋這一演變。
RAG (2020-2023):
- 一次檢索信息,生成回應
- 沒有決策,只是提取和回答
- 問題:經常檢索到不相關的上下文
代理 RAG:
- 代理決定 *是否* 需要檢索
- 代理選擇 *哪個* 資源進行查詢
- 代理驗證 *結果是否* 有用
- 問題:仍然是只讀的,無法從互動中學習
AI 記憶:
- 讀取和寫入外部知識
- 從過去的對話中學習
- 記住用戶偏好、過去的上下文
- 實現真正的個性化
心理模型很簡單:
↳ RAG:只讀,一次性
↳ 代理 RAG:通過工具調用的只讀
↳ 代理記憶:通過工具調用的讀寫
這就是使代理記憶強大的原因:
代理現在可以 "記住" 事情 - 用戶偏好、過去的對話、重要的日期。所有這些都被存儲並可供未來的互動檢索。
這解鎖了更大的東西:持續學習。
代理不再在訓練時凍結,而是可以從每次互動中積累知識。它們隨著時間的推移而改進,而無需重新訓練。
記憶是靜態模型和真正自適應 AI 系統之間的橋樑。
但這並不是一帆風順的。
記憶引入了 RAG 從未遇到的新挑戰:記憶損壞、決定忘記什麼,以及管理多種記憶類型(程序性、情節性和語義性)。
從零開始解決這些問題是困難的。如果你想給你的代理人類般的記憶,請查看 Graphiti - 一個用於構建實時知識圖的開源框架。
你可以在下一條推文中找到鏈接!
2.07K
熱門
排行
收藏

