GPU 與 HBM 之間的界限崩潰… 下一代 HBM 將嵌入 GPU 核心 一種將圖形處理單元 (GPU) 安裝到下一代高帶寬記憶體 (HBM) 的方法正在被追求。這是全球大型科技公司為了提高人工智慧 (AI) 性能而嘗試的一項新技術。這意味著在記憶體和系統半導體的融合中,半導體公司之間的界限正在被打破。 根據 26 日的綜合報導,Meta 和 NVIDIA 正在審查將 GPU 核心安裝在 HBM 上的計劃。具體來說,這涉及將 GPU 核心嵌入位於 HBM 堆疊底部的基底晶片中,他們目前正在探索與 SK 海力士和三星電子的合作。 多位熟悉此事的行業內部人士表示,"正在討論下一代 '定制 HBM' 架構,其中一種結構是直接將 GPU 核心集成到 HBM 基底晶片中。" HBM 是通過堆疊多個 DRAM 晶片創建的高性能記憶體。它是為需要處理大量數據的 AI 應用而設計的。 目前,基底晶片負責在 HBM 結構最底部的記憶體與外部世界之間的通信。從這裡向前邁進的一步是加入在 HBM4 中實施的 '控制器'。業界正試圖通過添加能夠控制記憶體的半導體來提高性能和效率。HBM4 是一款計劃於明年開始全面量產的產品。 嵌入 GPU 核心被解釋為比 HBM4 控制器更進一步的技術。在 GPU 和 CPU 中,核心是能夠獨立計算的基本單位。例如,4 核 GPU 意味著有四個能夠計算的核心;核心越多,計算性能就越高。 將核心放入 HBM 是一種將集中在 GPU 中的計算功能分散到記憶體中的嘗試,從而減少數據移動並降低主 GPU 本體的負擔。 一位行業官員解釋說,"在 AI 計算中,重要的因素不僅是速度,還有能效,"並補充說,"減少記憶體和計算單元之間的物理距離可以減少數據傳輸延遲和功耗。" 然而,技術挑戰仍然存在。由於通過硅通孔 (TSV) 工藝的特性,HBM 基底晶片中容納 GPU 核心的空間非常有限。電源供應和散熱也是主要問題。由於 GPU 計算核心消耗高功率並產生大量熱量,熱控制可能成為瓶頸。 這一發展對國內半導體行業來說既是機遇也是危機。如果公司擁有實現 CPU 或 GPU 的代工或封裝能力,這將成為進一步發展 HBM 並繼續引領 AI 半導體市場的機會。然而,擔心如果反應能力不足,可能會成為系統半導體行業的附屬品。 KAIST 電機工程學院的金鍾浩教授表示,"記憶體與系統半導體之間的界限崩潰以促進 AI 進步的技術轉型速度將加快,"並補充說,"國內公司必須擴大其生態系統,超越記憶體進入邏輯領域,以搶佔下一代 HBM 市場。"