这在方向上是正确的。 多年前,HBM与SRAM在架构设计中的权衡是显而易见的。选择HBM的人现在排在Nvidia和Google的后面。祝你好运。 更广泛地说,LLM解码模式更倾向于SRAM。但与Gavin不同,我认为这为未来支持AI模型的更多异构硅创造了机会,而不是减少。 我怀疑重要的两个轴是准确性与速度,如果你能为特定的AI用例设计一个专注的解决方案,就会有市场。