At CES 2026, 老黃提出了一個新的觀點:數據中心新的卡脖子的壓力,已經從 “insufficient compute” 變成了“insufficient context” ,提出了“Context is the new bottleneck — storage must be rearchitected.” 1️⃣那這裡的Context指的具體是什麼呢? Context是一個非常核心的AI概念!用最通俗的話來解釋: 上下文長度,就是AI模型在處理你的當前問題時,能“看到”並綜合考慮的之前文本(或對話歷史)的總量。 你可以把它想象成模型的“短期工作記憶”或“參考書頁數”。 假設你有一位記憶力有限的老師: 上下文長度短(如 4K tokens):這位老師只能記住你們最近幾分鐘的對話。如果你突然問他:“我們剛纔討論的那本書的作者還寫了什麼?”,如果他“記憶窗口”裡已經沒有這部分內容了,他就無法回答。 上下文長度長(如 128K tokens):這位老師能記住你們過去幾小時甚至幾天的完整對話。他可以輕鬆地回顧很久之前提到的細節,並在此基礎上進行複雜的推理和總結。 2️⃣在技術上,上下文長度通常以 “令牌” 來衡量。一個token大約等於0.75個英文單詞或一個中文字符。 🌟4K tokens:約3000個英文單詞,或一篇短文。 🌟128K tokens:約10萬個英文單詞,相當於一本中長篇小說的長度。 🌟1M tokens:約75萬個英文單詞,相當於好幾本長篇鉅著。 3️⃣為什麼它如此重要? 上下文長度直接決定了模型能處理任務的複雜度和連貫性: -長文檔處理:要總結、分析或翻譯一本數百頁的書籍,這需要超長的上下文窗口。 -複雜多輪對話:在客服、心理諮詢或複雜的創意協作中,對話可能持續數十甚至上百輪。長上下文能確保模型不忘記最初的設定和目標,保持對話的一致性和深度。 -“大海撈針”能力:這是衡量長上下文模型效能的關鍵測試。即在幾萬字的文本中故意埋藏一個事實,強大的長上下文模型能準確找到答案。 -減少信息丟失:在短上下文中,當新信息輸入時,舊信息會被“擠出去”。這會導致模型失憶、前後矛盾。長上下文極大地緩解了這個問題。 4️⃣那當上下文成為新的瓶頸,又會帶來什麼樣的技術革命和投資機會呢? 其實看這幾天的盤面已經非常明顯,無論是強勢的閃迪 $SDNK 、美光 $MU 三星、SK都顯示了。新的技術瓶頸也將帶來新的機會。 這推動了存儲架構和內存子系統的革命(如HBM高帶寬內存、CXL協議、NVIDIA的ICMS平臺等)。 5️⃣儲存超級週期或許真的到來! 這一波邏輯改變,讓原本屬於“配角”的內存和存儲,拿到了 AI 基礎設施週期的“主角”劇本。...