這在方向上是正確的。 多年前,HBM與SRAM在架構設計中的權衡已經很明顯。選擇HBM的人現在在Nvidia和Google的後面排隊。祝你好運。 更廣泛地說,LLM解碼模式偏向SRAM。但與Gavin不同,我認為這為未來支持AI模型的更多異構矽創造了一個機會,而不是減少。 我懷疑重要的兩個軸是準確性與速度,如果你能為特定的AI用例設計一個專注的解決方案,將會有一個市場。