跳转至主要内容
行情
扫链
追踪
信号
牛人榜
兑换
资产
邀请计划
更多
产品
DeFi
市场
洞察中心
Eco Hub
安全中心
开发者中心
DEX API
探索 DEX API
DEX API 文档
API Key 管理
区块链浏览器
X Layer
探索 X Layer
X Layer 浏览器
跨链桥
开发者文档
测试网水龙头
GitHub
DApp 连接钱包
Boost
X Launch
参与 X Launch,抢先赚新币
Giveaway
完成指定任务,领取空投好礼
交易赛
交易热门代币,冲榜赢大奖
奖励中心
领取奖励和空投
预警
语言
货币
下载 OKX Wallet
Web3 指南
公告
返回
简体中文
繁體中文
English
Tiếng Việt
Русский
Español (Latinoamérica)
Bahasa Indonesia
Français
Deutsch
Italiano
Polski
Čeština
Română
Português (Portugal)
Português (Brasil)
Українська
Español (España)
Nederlands
العربية
日本語
Norsk (bokmål)
Suomi
Svenska
返回
返回
使用教程
学院
帮助中心
发现功能使用指南
热门话题
#
Bonk 生态迷因币展现强韧势头
Hosico
-1.36%
USELESS
+12.36%
IKUN
+0.13%
gib
-12.61%
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
Bonk
+0.34%
ALON
+0.39%
LAUNCHCOIN
+15.71%
GOONC
-0.36%
KLED
-19.38%
#
Solana 新代币发射平台 Boop.Fun 风头正劲
BOOP
+0.7%
Boopa
+4.53%
PORK
+16.22%
主页
steve hsu
物理学家、AI 创始人、Manifold 播客
查看原文
steve hsu
36 分钟前
对于非专家:Frontier 模型已经在大量人类知识上进行了训练——包括高级数学、物理学、医学和编程。它们具有巨大的潜在能力。 相对便宜的“微调”过程(在这种情况下是 LoRA)能否使模型适应特定用例,从而使其更有用? 这正是 Thinking Machines 正在探索的内容。请注意,这依赖于对开源 Frontier 模型的访问。
steve hsu
15 小时前
约翰·舒尔曼与思维机器:无悔的LoRA LoRA用修改后的版本W’=W+γBA替换原始模型中的每个权重矩阵W,其中B和A是参数总数远少于W的矩阵。 当以下情况发生时,LoRA的表现与完全微调相似: 1. LoRA应用于网络的所有层,特别是包含大多数参数的MLP/MoE层。 2. LoRA没有容量限制,即可训练参数的数量超过要学习的信息量,这可以通过数据集大小来估算。 影响:大型(例如万亿参数)基础模型可以以训练新模型的极小成本进行定制。
1.47K
6
steve hsu
12 小时前
是的,中华人民共和国政府故意低估经济数据。这是之前“隐忍待时”时代的遗留。 对此我们不能责怪西方经济学家,除了他们应该有更多的常识去仔细核对数据,以查看这些数据是否现实。 (情况相当复杂,因为有时他们的某些增长数据可能被夸大,而在官方GDP数据中,他们则低估了更重要的东西,比如服务业、住房等的价值。)
L.W
13 小时前
国内政府应该不想在官方声明的GDP上超越美国。 现在这个位置很好。 美国政府也不想中国在GDP上超越美国。 现在这个位置很好。
14.95K
121
steve hsu
15 小时前
约翰·舒尔曼与思维机器:无悔的LoRA LoRA用修改后的版本W’=W+γBA替换原始模型中的每个权重矩阵W,其中B和A是参数总数远少于W的矩阵。 当以下情况发生时,LoRA的表现与完全微调相似: 1. LoRA应用于网络的所有层,特别是包含大多数参数的MLP/MoE层。 2. LoRA没有容量限制,即可训练参数的数量超过要学习的信息量,这可以通过数据集大小来估算。 影响:大型(例如万亿参数)基础模型可以以训练新模型的极小成本进行定制。
4.29K
15
热门
排行
收藏