Isto está direcionalmente correto. O tradeoff entre HBM e SRAM no design de arquitetura era claro há muitos anos. Aqueles que escolheram HBM estão numa fila atrás da Nvidia e do Google. Boa sorte com isso. De forma mais ampla, os padrões de decodificação de LLM favorecem SRAM. Mas ao contrário de Gavin, eu acho que isso cria uma oportunidade para um silício ainda mais heterogéneo para suportar modelos de IA no futuro. Não menos. Suspeito que os dois eixos que importam são precisão vs velocidade e se você conseguir projetar uma solução focada para um caso de uso específico de IA, haverá um mercado.