熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁
At CES 2026, 老黃提出了一個新的觀點:數據中心新的卡脖子的壓力,已經從 “insufficient compute” 變成了“insufficient context” ,提出了“Context is the new bottleneck — storage must be rearchitected.”
1️⃣那這裡的Context指的具體是什麼呢?
Context是一個非常核心的AI概念!用最通俗的話來解釋:
上下文長度,就是AI模型在處理你的當前問題時,能“看到”並綜合考慮的之前文本(或對話歷史)的總量。
你可以把它想象成模型的“短期工作記憶”或“參考書頁數”。
假設你有一位記憶力有限的老師:
上下文長度短(如 4K tokens):這位老師只能記住你們最近幾分鐘的對話。如果你突然問他:“我們剛纔討論的那本書的作者還寫了什麼?”,如果他“記憶窗口”裡已經沒有這部分內容了,他就無法回答。
上下文長度長(如 128K tokens):這位老師能記住你們過去幾小時甚至幾天的完整對話。他可以輕鬆地回顧很久之前提到的細節,並在此基礎上進行複雜的推理和總結。
2️⃣在技術上,上下文長度通常以 “令牌” 來衡量。一個token大約等於0.75個英文單詞或一個中文字符。
🌟4K tokens:約3000個英文單詞,或一篇短文。
🌟128K tokens:約10萬個英文單詞,相當於一本中長篇小說的長度。
🌟1M tokens:約75萬個英文單詞,相當於好幾本長篇鉅著。
3️⃣為什麼它如此重要?
上下文長度直接決定了模型能處理任務的複雜度和連貫性:
-長文檔處理:要總結、分析或翻譯一本數百頁的書籍,這需要超長的上下文窗口。
-複雜多輪對話:在客服、心理諮詢或複雜的創意協作中,對話可能持續數十甚至上百輪。長上下文能確保模型不忘記最初的設定和目標,保持對話的一致性和深度。
-“大海撈針”能力:這是衡量長上下文模型效能的關鍵測試。即在幾萬字的文本中故意埋藏一個事實,強大的長上下文模型能準確找到答案。
-減少信息丟失:在短上下文中,當新信息輸入時,舊信息會被“擠出去”。這會導致模型失憶、前後矛盾。長上下文極大地緩解了這個問題。
4️⃣那當上下文成為新的瓶頸,又會帶來什麼樣的技術革命和投資機會呢?
其實看這幾天的盤面已經非常明顯,無論是強勢的閃迪 $SDNK 、美光 $MU 三星、SK都顯示了。新的技術瓶頸也將帶來新的機會。
這推動了存儲架構和內存子系統的革命(如HBM高帶寬內存、CXL協議、NVIDIA的ICMS平臺等)。
5️⃣儲存超級週期或許真的到來!
這一波邏輯改變,讓原本屬於“配角”的內存和存儲,拿到了 AI 基礎設施週期的“主角”劇本。...
熱門
排行
收藏
