Esto es direccionalmente correcto. El intercambio entre HBM y SRAM en el diseño de arquitecturas fue claro hace muchos años. Aquellos que eligieron HBM están en una cola detrás de Nvidia y Google. Buena suerte con eso. Más en general, los patrones de decodificación de LLM favorecen SRAM. Pero a diferencia de Gavin, creo que esto crea un espacio para un silicio aún más heterogéneo que apoye modelos de IA en el futuro. No menos. Sospecho que los dos ejes que importan son precisión frente a velocidad y si puedes diseñar una solución enfocada para un caso de uso específico de IA, habrá un mercado.