熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁
我認為這是一個挑釁性的觀點,也是個不錯的想法,但我想稍微探討一下其背後的理由。
今天,大多數 AI 工具都運行在雲端。每當你請求模型寫作、總結、翻譯或分析某些內容時,該請求就會觸及數據中心的 GPU。更多用戶 → 更多查詢 → 更多 GPU → 更多數據中心 → 更多電力線、變壓器、變電站 → 更多發電,等等。這就是當前 AI 硬體 + 數據中心資本支出繁榮的核心驅動力。
有用的設備端推理打破了這一線性鏈條。
如果一個擁有數十億參數的模型足夠高效,可以在你手機、筆記本電腦、汽車或耳機內的神經芯片上運行,那麼許多日常任務就不必離開設備。想想簡單但高頻的請求:自動完成、電子郵件草擬、語音轉錄、總結、簡單的圖像識別。這些正是可能主導使用的高頻、低複雜度的一般查詢。
快速檢查一下可能的變化:簡單假設 - 隨意調整。
- 10 億用戶 × 50 查詢/天 × 約 $0.002/查詢 × 365 天 = 約 $350 億/年 的雲端推理成本。
- 如果其中 30% 轉移到設備端,那就是每年約 $110 億以上的雲端需求不再出現。
- 每個本地查詢的邊際成本在設備出貨後實際上是約 $0。
正常的警告:硬體正在進步,但仍需擴大記憶體、帶寬等。但一個運行在手機神經芯片上的 30–70 億參數模型(今天大約 10–45 "TOPS",預計到 2027 年將超過 60)可以在本地處理這些高頻、低複雜度的任務。你不需要每個提示都使用前沿規模的模型。
雲端仍然很重要,這一點要非常清楚。訓練前沿模型、重型長上下文推理、大型企業工作負載、多代理協調——所有這些仍然更適合大型集中式數據中心。關鍵的變化是邏輯鏈不再是“每新增一位用戶 = 我必須增加更多的 GPU 和更多的數據中心容量”。這裡未知的是傑文悖論的論點,以及它是否會推動更多的 AI 使用,並驅使用戶尋求更複雜的提示,從而抵消部分這一點。
針對 Aashay 的觀點,資本支出繁榮並不會完全“破裂”,但其當前的強度軌跡很可能會被改變。在當前的規模下,將 5–30% 的推理工作負載從雲端轉移到設備端可能是有意義的。困難的問題仍然集中在雲端。但“日常 AI”成為你已擁有的硬體的一個特徵,而不是按查詢租用的計量公用事業。
熱門
排行
收藏

