Tämä on suunnallisesti oikein. HBM:n ja SRAM:n kompromissi arkkitehtuurisuunnittelussa oli selvä jo monta vuotta sitten. Ne, jotka valitsivat HBM:n, ovat jonossa Nvidian ja Googlen takana. Onnea siihen. Laajemmin LLM-dekoodauskuviot suosivat SRAM-muistia. Mutta toisin kuin Gavin, uskon, että tämä avaa mahdollisuuden entistä heterogeenisemmille piille tukea tekoälymalleja tulevaisuudessa. Ei vähempää. Epäilen, että kaksi tärkeää akselia ovat tarkkuus vs. nopeus, ja jos pystyt suunnittelemaan kohdennetun ratkaisun tiettyyn tekoälyn käyttötapaukseen, markkinat syntyvät.