GPUとHBMの境界が崩壊...次世代HBMから埋め込みGPUコアへ 次世代の高帯域幅メモリ(HBM)にグラフィックス処理ユニット(GPU)をマウントする方法が検討されています。これは、世界の大手テック企業が人工知能(AI)のパフォーマンス向上を目的として試みている新技術です。これは、メモリとシステム半導体の融合の中で半導体企業間の境界が打ち破られつつあることを意味します。 26日の包括的な報道によると、MetaとNVIDIAはHBMにGPUコアを搭載する計画を検討しています。具体的には、HBMスタックの最下部にあるベースダイにGPUコアを埋め込むことであり、現在SKハイニックスやサムスン電子との協力も模索中です。 この件に詳しい複数の業界関係者は「次世代の『カスタムHBM』アーキテクチャが議論されており、その中にはGPUコアをHBMベースダイに直接統合する構造も検討されている」と述べています。 HBMは複数のDRAMチップを積み重ねて生成される高性能メモリです。これは大量のデータを処理する必要があるAIアプリケーション向けに設計されました。 現在、ベースダイはHBM構造の最底にあるメモリと外部との通信を担当しています。ここから一歩進むのが、HBM4で実装された「コントローラー」の導入です。業界はメモリ制御可能な半導体を追加することで性能と効率の向上を目指しています。HBM4は来年から本格的な量産が予定されている製品です。 GPUコアの埋め込みはHBM4コントローラーよりも数段階先を行った技術と解釈されます。GPUやCPUにおいて、コアは独立した計算が可能な基本単位です。例えば、4コアGPUとは計算可能なコアが4つあることを意味します。コアが多ければ多いほど、計算性能の向上も大きくなります。 HBMにコアを組み込むことは、GPUに集中していた計算関数をメモリに分散させることで、データの移動を減らし、メインGPUボディへの負担を軽減する試みです。 業界関係者は「AI計算において重要な要素は速度だけでなくエネルギー効率も重視する」と説明し、「メモリと計算ユニットの物理的距離を縮めることで、データ転送の遅延と消費電力の両方を削減できる」と付け加えました。 しかし、技術的な課題は依然として残っています。Through-Silicon Via(TSV)プロセスの特性により、HBMベースダイにGPUコアを収容できるスペースは非常に限られています。電源供給や熱の放散も大きな問題です。GPUの計算コアは高消費電力と大量の熱発生を生むため、熱制御がボトルネックになる可能性があります。 この動きは国内半導体産業にとって、機会であると同時に危機でもある可能性があります。もし企業がCPUやGPUを実装するためのファウンドリーやパッケージング能力を有していれば、HBMをさらに発展させ、AI半導体市場をリードし続けるチャンスとなります。しかし、応答能力が不足するとシステム半導体産業に従属してしまう懸念があります。 KAIST電気工学部のキム・ジュンホ教授は「AIの進歩のためにメモリとシステム半導体の境界が崩壊する技術移行のスピードは加速する」と述べ、「国内企業は次世代HBM市場を先取りするために、メモリから論理分野へエコシステムを拡大しなければならない」と付け加えました。