热门话题
#
Bonk 生态迷因币展现强韧势头
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
#
Solana 新代币发射平台 Boop.Fun 风头正劲
我主持了一场关于Dwarkesh、Burry博士和John Clark(来自Anthropic)之间的讨论,讨论了对更了解AI的人群中存在的分歧,包括对未来就业的影响、是否存在泡沫等。
感谢Substack让这一切成为可能。
一个次级分歧是,LLMs(大型语言模型)在多大程度上能够做出商业上有价值的事情,这一群体绝对同意,但它们在难以预测的方式上是尖锐且容易出错的。
是的!人类也是如此。而且幸运的是,我们有不同的缺陷。

杰克强调的一个观点,也是信息充分的人与需要了解的人之间最大的理解差距之一:今天的能力是一个底线,而不是上限。
任何未来的系统都可以选择接受或放弃它们。
杰克简要叙述了大型语言模型(LLMs)如何与之前流行的观点形成鲜明对比,即我们通过建立十万个测试平台,让特定解决方案学习如何在狭窄的领域中获胜,然后??? 泛化意味着智能。
相反,我们构建了一个*引人注目的*通用工具,针对一个环境(“把它放在一个有所有书面文件的房间里”),然后从中产生的东西在面对新任务时恰好非常成功。接下来的几年可能会涉及创建测试平台。
我观察到:我们曾经训练人工智能玩《星际争霸》。
所有未来的尝试都可以假设系统已经阅读了《孙子兵法》的原文,除非架构师认为这些知识会让你在阻止虫族冲锋时变得更糟。
* 杰克·克拉克,不是约翰·克拉克。抱歉,我是看着汤姆·克兰西长大的。
总有一天,他们会能够预览我的推文,我会为在手机上草拟时脸上少了多少蛋而感到高兴。
222
热门
排行
收藏
