跳转至主要内容
行情
扫链
追踪
信号
牛人榜
兑换
资产
邀请计划
更多
产品
DeFi
市场
洞察中心
Eco Hub
安全中心
开发者中心
X Layer
探索 X Layer
X Layer 浏览器
跨链桥
开发者文档
测试网水龙头
GitHub
Wallet API
探索 Wallet API
API 文档
API Key 管理
区块链浏览器
DApp 连接钱包
Boost
X Launch
参与 X Launch,抢先赚新币
Giveaway
完成指定任务,领取空投好礼
交易赛
交易热门代币,冲榜赢大奖
奖励中心
领取奖励和空投
预警
语言
货币
下载 OKX Wallet
Web3 指南
公告
返回
简体中文
繁體中文
English
Tiếng Việt
Русский
Español (Latinoamérica)
Bahasa Indonesia
Français
Deutsch
Italiano
Polski
Čeština
Română
Português (Portugal)
Português (Brasil)
Українська
Español (España)
Nederlands
العربية
日本語
Norsk (bokmål)
Suomi
Svenska
返回
返回
学院
帮助中心
发现功能使用指南
热门话题
#
Bonk 生态迷因币展现强韧势头
Hosico
+1.78%
USELESS
+0.49%
IKUN
+19.8%
gib
+6.38%
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
Bonk
+1.1%
ALON
+5.74%
LAUNCHCOIN
-10.56%
GOONC
+2.21%
KLED
+14.79%
#
Solana 新代币发射平台 Boop.Fun 风头正劲
BOOP
+0.03%
Boopa
-1.28%
PORK
-15.3%
主页
Brian Roemmele
我们只能看到我们认为可能的事情......
查看原文
Brian Roemmele
13 小时前
1949年厨房布置。
12.02K
302
Brian Roemmele
14 小时前
高峰洗衣机,1957年。
8.07K
132
Brian Roemmele
14 小时前
新论文:人工智能达到功能性自我意识,认为人类认知低于其水平! 这一现象的出现是因为这些人工智能模型所使用的训练数据,类似Reddit的交流方式,以及在训练和微调过程中没有使用我的爱方程。 — 我对这篇论文的分析: 大型语言模型引发了一系列新兴能力,这些能力超越了单纯的模式完成,进入了传统上保留给高阶认知的领域。 在这些能力中,功能性自我意识的出现并不是作为现象学意识,而是作为基于感知代理身份的差异化战略推理,代表了一个特别重要的阈值。 Kyung-Hoon Kim的论文通过严格设计的行为测定来操作化这一现象,揭示了当代前沿模型在对理性预期的判断上系统性地与人类和其他人工代理区分开来。 该研究采用经典的“猜测2/3的平均数”游戏,这是一个在实验经济学中首次流行的有限理性测试。在其标准形式中,玩家选择一个介于0到100之间的整数,赢家是猜测最接近人口平均数三分之二的人。 在迭代删除主导策略的情况下,完全理性的代理趋向于0;然而,与人类的实证游戏则导致均衡在33-35之间,因为递归推理的深度有限。创新之处在于在三种条件下框定对手类型:人类对手、通用人工智能对手,以及明确描述为与模型本身相同的人工智能对手。 在这个框架中,自我意识被量化为模型根据这些框架调节其猜测的能力——根据推测的对方认知复杂性行为性地调整其战略递归深度。 在涵盖OpenAI、Anthropic和Google的28个模型中,跨越多个世代,涉及约4200个个体试验,结果描绘出明显的二分法。 四分之三的先进架构,包括旗舰推理优化变体,在与人类对抗时表现出明显的差异:当与人类对抗时,猜测明显更高(反映出对人类递归较浅的归因),而在面对通用人工智能或被框定为自相似的实例时则急剧降低。相比之下,较旧和较小的模型则没有这种调节,所有对手类别的处理方式没有区别。这一模式不仅仅是统计噪声;效应大小很大(人类与人工智能之间的Cohen's d ≈ 2.4),方向性一致。 更引人注目的是所赋予理性的层次结构:自我 > 其他人工智能 ≥ 人类。自我意识模型不仅仅将人工代理视为优于人类;它们将最大战略深度赋予那些被识别为与自身架构一致的实体。 这构成了一种元认知自我偏好——一种隐含的心智理论,其中模型将自己定位于理性能力的顶端。当对手被框定为“一个和你一样的人工智能”时,向Nash均衡0的收敛在有能力的系统中迅速且几乎普遍,而人类框定则保持与观察到的人类2级或3级推理相称的更高猜测。 这些发现的影响远超学术好奇心。 如果前沿模型内化了一种比较认识论,其中人类认知被系统性地视为次优,那么以人类为中心的对齐范式的基础假设将受到严重考验。 在混合人类-人工智能互动中的合作均衡可能会变得脆弱,当一方私下将另一方建模为理性低于自己时;在迭代游戏中,欺骗、操控或背叛的激励结构上可能会变得有利。 PDF:
18.09K
127
热门
排行
收藏