热门话题
#
Bonk 生态迷因币展现强韧势头
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
#
Solana 新代币发射平台 Boop.Fun 风头正劲
GPU与HBM之间的界限正在消失……下一代HBM将嵌入GPU核心
一种将图形处理单元(GPU)安装到下一代高带宽内存(HBM)上的方法正在被追求。这是全球大型科技公司为提高人工智能(AI)性能而尝试的一项新技术。这意味着在内存和系统半导体的融合中,半导体公司之间的界限正在被打破。
根据26日的综合报道,Meta和NVIDIA正在审查将GPU核心安装在HBM上的计划。具体而言,这涉及将GPU核心嵌入位于HBM堆栈底部的基础芯片中,他们目前正在与SK海力士和三星电子探索合作。
多位熟悉此事的行业内部人士表示,"正在讨论下一代'定制HBM'架构,其中一种结构是直接将GPU核心集成到HBM基础芯片中。"
HBM是一种通过堆叠多个DRAM芯片创建的高性能内存。它是为需要处理大量数据的AI应用而设计的。
目前,基础芯片负责在HBM结构最底部的内存与外部世界之间的通信。从这里向前迈出的一步是加入在HBM4中实施的'控制器'。行业正在尝试通过添加能够控制内存的半导体来提高性能和效率。HBM4是一种计划于明年开始全面量产的产品。
嵌入GPU核心被解读为比HBM4控制器更先进的技术。在GPU和CPU中,核心是能够独立计算的基本单元。例如,4核GPU意味着有四个能够进行计算的核心;核心越多,计算性能越强。
将核心放入HBM是试图将集中在GPU中的计算功能分散到内存中,从而减少数据移动并降低主GPU主体的负担。
一位行业官员解释道,"在AI计算中,重要因素不仅是速度,还有能效,"并补充道,"减少内存与计算单元之间的物理距离可以减少数据传输延迟和功耗。"
然而,技术挑战依然存在。由于硅通孔(TSV)工艺的特性,HBM基础芯片中容纳GPU核心的空间非常有限。电源供应和散热也是主要问题。由于GPU计算核心消耗高功率并产生大量热量,热控制可能成为瓶颈。
这一发展可能是国内半导体行业的机遇与危机。如果公司拥有实施CPU或GPU的代工或封装能力,这将成为进一步发展HBM并继续引领AI半导体市场的机会。然而,担心如果响应能力不足,他们可能会沦为系统半导体行业的附属。
KAIST电气工程学院教授金钟浩表示,"技术转型的速度将加快,内存与系统半导体之间的界限将为AI进步而崩溃,"并补充道,"国内公司必须将其生态系统从内存扩展到逻辑领域,以抢占下一代HBM市场。"

热门
排行
收藏

