跳转至主要内容
行情
扫链
追踪
信号
跟单
兑换
资产
邀请计划
更多
产品
DeFi
市场
安全中心
开发者中心
X Layer
探索 X Layer
X Layer 浏览器
跨链桥
开发者文档
测试网水龙头
GitHub
Wallet API
探索 Wallet API
API 文档
API Key 管理
区块链浏览器
DApp 连接钱包
Boost
X Launch
参与 X Launch,抢先赚新币
X Campaign
参与活动,赢取丰厚奖励
奖励中心
领取奖励和空投
预警
语言
货币
颜色设置
下载 OKX Wallet
Web3 指南
公告
返回
简体中文
繁體中文
English
Tiếng Việt
Русский
Español (Latinoamérica)
Bahasa Indonesia
Français
Deutsch
Italiano
Polski
Čeština
Română
Português (Portugal)
Português (Brasil)
Українська
Español (España)
Nederlands
العربية
日本語
Norsk (bokmål)
Suomi
Svenska
Türkçe
返回
返回
学院
帮助中心
热门话题
#
Bonk 生态迷因币展现强韧势头
Hosico
-22.82%
USELESS
-11.23%
IKUN
-9.29%
gib
-2.75%
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
Bonk
-2.65%
ALON
-1.1%
LAUNCHCOIN
-3.56%
GOONC
-1.33%
KLED
+5.62%
#
Solana 新代币发射平台 Boop.Fun 风头正劲
BOOP
-0.98%
Boopa
-13.14%
PORK
0.00%
主页
elvis
使用 AI 代理进行构建 @dair_ai • 上一篇: Meta AI、Galactica、LLM、Elastic、PaperswithCode、博士 • 我分享了如何使用 LLM 和 AI 代理⬇️进行构建的见解
查看原文
elvis
4 小时前
这篇论文很好地展示了一个具备技能的单一代理可以被推到多远。
DAIR.AI
4 小时前
一个单一的代理能否替代多代理系统? 多代理系统在复杂推理中表现良好,专门化的代理通过明确的沟通进行协作。 但这会带来可观的计算开销,包括令牌和延迟。 这项新研究探讨了是否可以通过将代理间的沟通转化为技能选择,将多代理系统编译成等效的单代理系统。 答案是:可以,但有一个警告。 初步实验表明,使用技能库的单代理方法可以显著减少令牌使用和延迟,同时在推理基准上保持竞争力的准确性。 到目前为止,一切都很好。 但有趣的是,研究人员问:随着库的增长,技能选择如何扩展? 借鉴认知科学,他们提出LLM技能选择表现出类似于人类决策的有限容量。他们发现了一个有趣的模式。 选择准确性并不是逐渐下降,而是在达到一个临界库大小之前保持稳定,然后急剧下降。但这看起来像是一个相变,而不是平滑的下降。这与人类认知中观察到的容量限制相似。 罪魁祸首不仅仅是库的大小。相似技能之间的语义混淆也是一个因素。当技能在语义上过于相似时,模型无法可靠地区分它们。 这表明,层次化组织,长期以来帮助人类管理复杂选择,可能同样有利于AI系统。初步结果与层次路由支持了这一假设。 随着我们构建越来越强大的代理并扩展技能集,理解这些基本限制变得至关重要。你不能无限制地添加技能。存在一个阈值,在这个阈值上选择会崩溃,并且这种崩溃是突然发生的,而不是逐渐发生的。 论文: 在我们的学院学习如何构建有效的AI代理:
18
elvis
5 小时前
麻省理工学院的研究人员提出了递归语言模型 你将在2026年听到更多关于这个的消息。 这有什么重要性? 如果LLM能够处理比其上下文窗口长100倍的输入呢? 上下文长度是一个硬性约束。 你可以通过架构变化来扩展它,但总是有一个限制。大多数方法试图将更多内容挤入窗口或压缩不适合的内容。 这项新研究采取了不同的方法。与其与上下文限制作斗争,不如在程序上绕过它。 递归语言模型(RLM)将长提示视为外部环境。模型可以检查提示,将其分解为多个部分,并对片段进行递归调用。这是在上下文长度上应用的推理时间扩展。 与其强迫所有内容在一次传递中通过注意力,不如让模型战略性地划分和处理信息,通过多个递归调用进行处理。 结果令人印象深刻。RLM成功处理的输入量比模型上下文窗口多两个数量级。一个具有8K上下文的模型可以有效处理800K个标记。 但令人惊讶的是:即使对于适合上下文的较短提示,RLM在四个不同任务中也显著超越了基础LLM和常见的长上下文支架。 这暗示了一些有趣的事情。 也许对整个输入进行顺序注意并不总是最佳策略,即使在技术上是可能的。程序化分解和递归处理可能在某些任务上根本更好。 这种方法在每个查询的成本上与替代的长上下文方法相比,达到了可比或更低的成本。 上下文长度限制约束了代理可以做的事情。处理整个代码库、长文档或扩展的对话历史需要变通方法。RLM提供了一种通用的推理策略,将上下文限制转变为软约束,而不是硬约束。
55
热门
排行
收藏