Detta är rätt i riktningen. Avvägningen mellan HBM och SRAM i arkitekturdesign var tydlig för många år sedan. De som valde HBM står i kö bakom Nvidia och Google. Lycka till med det. Mer generellt gynnar LLM-avkodningsmönster SRAM. Men till skillnad från Gavin tror jag att detta skapar en bana för ännu mer heterogent kisel att stödja AI-modeller i framtiden. Inte mindre. Jag misstänker att de två viktiga axlarna är noggrannhet kontra hastighet, och om du kan designa en fokuserad lösning för ett specifikt AI-användningsfall kommer det att finnas en marknad.