Gedachten over NVIDIA Rubin en AMD MI455X Laten we een vergelijking maken tussen Nvidia's Rubin en AMD's MI455X, beide vandaag onthuld. Te beginnen met Rubin, het maakt gebruik van een 8-stack HBM4-configuratie. Het heeft een geheugendoorvoersnelheid van 22TB/s, met geheugen dat een per-pin Fmax van ongeveer 10,7Gbps heeft. Aan de andere kant kiest de MI455X voor een 12-stack HBM4-opstelling. Het levert echter een doorvoersnelheid van 19,6TB/s, met geheugen dat een per-pin Fmax van ongeveer 6,4Gbps heeft. Gezien de huidige JEDEC-norm voor HBM4 is 8Gbps, is het verschil duidelijk: Rubin maakt gebruik van top-tier, high-spec HBM4, terwijl de MI455X lijkt te vertrouwen op HBM4 die onder de standaard specificatie valt. Dit benadrukt een duidelijke divergentie in de bedrijfsstrategie: het gebruik van top-tier componenten versus brute kracht capaciteit. AMD heeft waarschijnlijk deze aanpak aangenomen omdat het voor hen uitdagend is om top-snelheid HBM4-volume veilig te stellen. Deze strategie brengt echter twee belangrijke risico's met zich mee. Ten eerste, de kosten- en opbrengstimplicaties. Het monteren van meer HBM-stacks vereist een groter interposergebied, wat de eenheidskosten direct verhoogt. Bovendien verlaagt een groter oppervlak onvermijdelijk de opbrengst voor 2.5D verpakkingsassemblage. Met andere woorden, de strategie om meer eenheden van lagere-spec HBM4 te gebruiken, kan paradoxaal duurder uitpakken dan Nvidia's strategie om minder eenheden van high-spec HBM4 te gebruiken. Ten tweede, de impact tijdens geheugentekorten. Deze aanpak verergert de knelpunten in de toeleveringsketen. Een 12-stack configuratie verbruikt 50% meer HBM-chiplets/stacks per GPU in vergelijking met een 8-stack ontwerp. Hoe krapper de wereldwijde HBM4-aanvoer, hoe meer het verzendvolume van AMD wordt beperkt door de beschikbaarheid van geheugen. Natuurlijk, in de vroege stadia waar de opbrengsten voor high-spec HBM4 laag zijn, is dit geen groot probleem - lage opbrengsten voor top-bin onderdelen resulteren van nature in een overvloed aan lagere-binned aanbod. Maar wat gebeurt er als de opbrengst leercurve verbetert? Naarmate de opbrengsten voor high-spec HBM4 stijgen, zullen leveranciers meer prikkel hebben om wafers toe te wijzen aan de hogere-marge chips die bestemd zijn voor Nvidia. Dit maakt het steeds moeilijker voor AMD om grote volumes van low-performance HBM4 tegen lage prijzen te verkrijgen. Bovendien, met Samsung die goed presteert in de HBM4-ruimte, zal AMD niet in staat zijn om voorraad op te nemen tegen "opruimings" prijzen zoals ze deden tijdens de HBM3E-cyclus. Uiteindelijk staat AMD voor een inherent nadeliger kostenstructuur op chipniveau in vergelijking met Nvidia's Rubin.