At CES 2026, 老黄提出了一个新的观点:数据中心新的卡脖子的压力,已经从 “insufficient compute” 变成了“insufficient context” ,提出了“Context is the new bottleneck — storage must be rearchitected.” 1️⃣那这里的Context指的具体是什么呢? Context是一个非常核心的AI概念!用最通俗的话来解释: 上下文长度,就是AI模型在处理你的当前问题时,能“看到”并综合考虑的之前文本(或对话历史)的总量。 你可以把它想象成模型的“短期工作记忆”或“参考书页数”。 假设你有一位记忆力有限的老师: 上下文长度短(如 4K tokens):这位老师只能记住你们最近几分钟的对话。如果你突然问他:“我们刚才讨论的那本书的作者还写了什么?”,如果他“记忆窗口”里已经没有这部分内容了,他就无法回答。 上下文长度长(如 128K tokens):这位老师能记住你们过去几小时甚至几天的完整对话。他可以轻松地回顾很久之前提到的细节,并在此基础上进行复杂的推理和总结。 2️⃣在技术上,上下文长度通常以 “令牌” 来衡量。一个token大约等于0.75个英文单词或一个中文字符。 🌟4K tokens:约3000个英文单词,或一篇短文。 🌟128K tokens:约10万个英文单词,相当于一本中长篇小说的长度。 🌟1M tokens:约75万个英文单词,相当于好几本长篇巨著。 3️⃣为什么它如此重要? 上下文长度直接决定了模型能处理任务的复杂度和连贯性: -长文档处理:要总结、分析或翻译一本数百页的书籍,这需要超长的上下文窗口。 -复杂多轮对话:在客服、心理咨询或复杂的创意协作中,对话可能持续数十甚至上百轮。长上下文能确保模型不忘记最初的设定和目标,保持对话的一致性和深度。 -“大海捞针”能力:这是衡量长上下文模型效能的关键测试。即在几万字的文本中故意埋藏一个事实,强大的长上下文模型能准确找到答案。 -减少信息丢失:在短上下文中,当新信息输入时,旧信息会被“挤出去”。这会导致模型失忆、前后矛盾。长上下文极大地缓解了这个问题。 4️⃣那当上下文成为新的瓶颈,又会带来什么样的技术革命和投资机会呢? 其实看这几天的盘面已经非常明显,无论是强势的闪迪 $SDNK 、美光 $MU 三星、SK都显示了。新的技术瓶颈也将带来新的机会。 这推动了存储架构和内存子系统的革命(如HBM高带宽内存、CXL协议、NVIDIA的ICMS平台等)。 5️⃣储存超级周期或许真的到来! 这一波逻辑改变,让原本属于“配角”的内存和存储,拿到了 AI 基础设施周期的“主角”剧本。...