Dwarkesh 用这个观点进行了烹饪: -RLVR 矛盾:实验室花费数十亿预先培养特定技能,这引发了一个根本性的紧张关系:如果我们接近人类学习者,这一切的预训练就毫无意义,因为他们会在工作中学习。 -人类劳动的真实价值:我们不需要为每个微任务定制训练管道;当前的 AI 需要。 -扩散滞后 = 应对:如果模型是人类等价的,它们的整合速度会比员工快 [可以对此进行辩论 - 数据来源、商业对可靠性的信心、替代恐惧等都可能合理地延迟 AI 部署;但我们仍然会相信这是一个更好的选择,而这还不是真的,所以我认为这一点是成立的]。 -目标转移已经发生:我们解决了我们认为是 AGI 瓶颈的问题(例如,推理),但仍然无法自动化 95% 的知识工作。智能比我们意识到的和之前定义的要复杂,这一点承认是可以的。 -持续学习瓶颈:未来 AI 的爆发性增长取决于解决持续学习 - 部署的代理,从经验中学习,将知识合并回“集体意识”。离这个目标还有很远,但我对我们能达到那里持乐观态度!