Jensen vient de vous dire que la DRAM est un risque pour la sécurité nationale et personne ne réévalue l'exposition de la chaîne d'approvisionnement de Nvidia. Voici ce que la plupart des gens pensent s'être passé : Nvidia a acheté Groq pour 20 milliards de dollars pour s'étendre dans l'inférence. Super acqui-hire, bonne technologie, passons à autre chose. C'est faux. Regardez ce qui se passe réellement sur les marchés de la DRAM en ce moment. Les prix des puces DDR5 sont passés de 6,84 $ à 27,20 $ au quatrième trimestre 2025. C'est une augmentation de 4x en trois mois. Samsung vient d'augmenter les prix des contrats de 100 %. Kingston applique des hausses à deux chiffres chaque semaine. Les fournisseurs de PC expédient maintenant des ordinateurs de bureau sans RAM parce qu'ils ne peuvent littéralement pas s'en procurer. Pourquoi ? HBM pour les centres de données AI. Samsung, SK Hynix et Micron ont réaffecté la capacité des wafers à HBM à un rythme 3x supérieur à celui de la DRAM standard. La chaîne d'approvisionnement AI cannibalise la mémoire grand public, et il n'y aura pas de répit avant 2027 au plus tôt, car de nouvelles usines prennent 4 à 5 ans à construire. Les GPU Nvidia sont riches en HBM. Chaque H100 contient 80 Go de HBM3. Chaque système B200 en nécessite encore plus. Et HBM consiste en plusieurs dies de DRAM empilés ensemble avec une fabrication extrêmement complexe. La multiplication par trois des prix de la DRAM n'affecte pas seulement les constructeurs de PC. Cela impacte directement les coûts et la capacité de production des GPU de Nvidia. Les LPU de Groq n'utilisent aucune HBM. Zéro. Ils fonctionnent entièrement avec 230 Mo de SRAM sur puce par processeur. La bande passante de la SRAM atteint 80 To/s contre 8 To/s pour la HBM. Les puces n'ont pas besoin de mémoire externe du tout. Chaque poids est directement sur le silicium. Cette architecture semblait être une contrainte lorsque la DRAM était bon marché. Vous avez besoin de centaines de puces Groq interconnectées pour exécuter un modèle de 70 milliards de paramètres parce que chaque puce contient si peu de mémoire. Informatique à l'échelle des racks. Interconnexions complexes. Capital intensif. Mais lorsque la DRAM quadruple en un trimestre et que l'approvisionnement en HBM devient la contrainte liant l'ensemble de la construction AI, cette "limitation" se transforme en avantage. Le LPU de Groq est fabriqué sur du silicium de 14 nm. Ancien selon les normes des semi-conducteurs. Pas de dépendance aux nœuds de pointe de TSMC. Pas de dépendance aux trois entreprises qui contrôlent plus de 90 % de la production de DRAM. Jensen a dépensé 20 milliards de dollars pour couvrir l'exposition la plus dangereuse de la chaîne d'approvisionnement de Nvidia. Si la HBM reste rare et chère, il possède maintenant une architecture d'inférence qui contourne entièrement la contrainte. Si la HBM se normalise, il a perdu 20 milliards de dollars sur une entreprise qui était évaluée à 6,9 milliards de dollars il y a trois mois. La prime de prix vous indique l'estimation de probabilité de Jensen. Il a payé près de 3x la valorisation du dernier tour pour une issue de secours. Et pour ce que ça vaut, TrendForce projette des pénuries de mémoire s'étendant jusqu'au premier trimestre 2026 et au-delà. Samsung, SK Hynix et Micron profitent tous de marges opérationnelles de 40 à 60 % et n'ont aucun incitatif à inonder le marché. L'oligopole se comporte exactement comme un oligopole. La question que personne ne pose : si le gars qui vend le plus de puces AI vient de dépenser 20 milliards de dollars pour acquérir une architecture qui n'utilise pas de DRAM, que sait-il sur l'approvisionnement en HBM que nous ne savons pas ?