Jensen heeft je net verteld dat DRAM een nationaal veiligheidsrisico is en niemand herwaardeert de blootstelling van Nvidia aan de toeleveringsketen. Hier is wat de meeste mensen denken dat er is gebeurd: Nvidia kocht Groq voor $20B om uit te breiden naar inferentie. Coole overname, goede technologie, verder met de orde van de dag. Dat is verkeerd. Kijk naar wat er momenteel daadwerkelijk gebeurt op de DRAM-markten. De prijzen van DDR5-chips zijn van $6,84 naar $27,20 gegaan in Q4 2025. Dat is een stijging van 4x in drie maanden. Samsung heeft net de contractprijzen met 100% verhoogd. Kingston voert wekelijks prijsstijgingen met dubbele cijfers door. PC-leveranciers verzenden nu desktops zonder RAM omdat ze het letterlijk niet kunnen verkrijgen. Waarom? HBM voor AI-datacenters. Samsung, SK Hynix en Micron hebben wafercapaciteit herbestemd naar HBM met 3x de snelheid van standaard DRAM. De AI-toeleveringsketen cannibaliseert consumenten geheugen, en er is geen verlichting tot 2027 op zijn vroegst omdat nieuwe fabrieken 4-5 jaar nodig hebben om te bouwen. Nvidia GPU's zijn HBM-zwaar. Elke H100 heeft 80GB HBM3. Elk B200-systeem vereist zelfs meer. En HBM bestaat uit meerdere DRAM-dies die op elkaar zijn gestapeld met extreem complexe productie. De verdriedubbeling van DRAM-prijzen heeft niet alleen invloed op PC-bouwers. Het voedt rechtstreeks in de kosten en productiecapaciteit van Nvidia's GPU's. Groq's LPU's gebruiken geen HBM. Geen. Ze draaien volledig op 230MB on-chip SRAM per processor. SRAM-bandbreedte bereikt 80 TB/s versus HBM's 8 TB/s. De chips hebben helemaal geen extern geheugen nodig. Elk gewicht zit direct op de silicium. Deze architectuur leek een beperking toen DRAM goedkoop was. Je hebt honderden Groq-chips nodig die met elkaar zijn verbonden om een model met 70B parameters te draaien omdat elke chip zo weinig geheugen heeft. Rack-schaal computing. Complexe interconnects. Kapitaalintensief. Maar wanneer DRAM 4x in een kwartaal stijgt en de HBM-aanvoer de bindende beperking wordt voor de gehele AI-uitbreiding, verandert die "beperking" in een voordeel. Groq's LPU wordt vervaardigd op 14nm silicium. Oud volgens de normen van halfgeleiders. Geen afhankelijkheid van TSMC's geavanceerde nodes. Geen afhankelijkheid van de drie bedrijven die meer dan 90% van de DRAM-productie controleren. Jensen heeft $20B uitgegeven om de meest gevaarlijke blootstelling van Nvidia aan de toeleveringsketen te dekken. Als HBM schaars en duur blijft, bezit hij nu een inferentie-architectuur die de beperking volledig omzeilt. Als HBM normaliseert, is hij $20B kwijt aan een bedrijf dat drie maanden geleden werd gewaardeerd op $6,9B. De prijs premium vertelt je Jensen's waarschijnlijkheidsinschatting. Hij betaalde bijna 3x de waardering van de laatste ronde voor een ontsnappingsroute. En voor wat het waard is, TrendForce projecteert dat geheugen tekorten zich uitstrekken tot Q1 2026 en verder. Samsung, SK Hynix en Micron genieten allemaal van 40-60% operationele marges en hebben geen enkele prikkel om de markt te overspoelen. Het oligopolie gedraagt zich precies als een oligopolie. De vraag die niemand stelt: als de man die de meeste AI-chips verkoopt net $20B heeft uitgegeven om een architectuur te verwerven die geen DRAM gebruikt, wat weet hij over de HBM-aanvoer dat wij niet weten?