Jensen acabou de dizer que a DRAM é um risco à segurança nacional e ninguém vai reprecificar a exposição da Nvidia na cadeia de suprimentos. Aqui está o que a maioria das pessoas acha que aconteceu: a Nvidia comprou o Groq por 20 bilhões de dólares para expandir para inferência. Contratação legal de acqui-hire, boa tecnologia, seguindo em frente. Isso está errado. Veja o que realmente está acontecendo nos mercados de DRAM agora. Os preços dos chips DDR5 passaram de $6,84 para $27,20 no quarto trimestre de 2025. Isso é um aumento de 4 vezes em três meses. A Samsung acabou de aumentar os preços dos contratos em 100%. Kingston implementa aumentos de dois dígitos semanalmente. Os fabricantes de PCs agora estão enviando desktops sem RAM porque literalmente não conseguem encontrar essa memória. Por quê? HBM para datacenters de IA. Samsung, SK Hynix e Micron realocaram a capacidade de wafers para a HBM a uma taxa 3x maior que a DRAM padrão. A cadeia de suprimentos da IA está canibalizando a memória dos consumidores, e não há alívio até 2027, no mínimo, porque novas fábricas levam de 4 a 5 anos para serem construídas. GPUs Nvidia são pesadas em HBM. Todo H100 vem com 80GB de HBM3. Todo sistema B200 exige ainda mais. E o HBM consiste em múltiplos chips de DRAM empilhados juntos com uma fabricação extremamente complexa. O triplicamento dos preços da DRAM não afeta apenas os fabricantes de PCs. Isso alimenta diretamente os custos de GPU e a capacidade de produção da Nvidia. As LPUs da Groq não usam nenhum HBM. Zero. Eles rodam inteiramente com 230MB de SRAM integrada por processador. A largura de banda SRAM atinge 80 TB/s contra 8 TB/s da HBM. Os chips não precisam de memória externa de jeito nenhum. Todo peso fica diretamente sobre o silício. Essa arquitetura parecia uma restrição quando a DRAM era barata. Você precisa de centenas de chips Groq conectados em rede para rodar um modelo de 70B de parâmetros porque cada chip armazena muito pouca memória. Computação em escala de rack. Interconexões complexas. Intensivo em capital. Mas quando a DRAM é 4x em um trimestre e o suprimento de HBM se torna a restrição de vinculação em toda a construção da IA, essa "limitação" se inverte em vantagem. A LPU da Groq é fabricada em silício de 14nm. Antigo para os padrões dos semicondutores. Sem dependência dos nós de ponta do TSMC. Sem dependência das três empresas que controlam 90%+ da produção de DRAM. Jensen gastou US$ 20 bilhões para proteger a exposição mais perigosa da Nvidia na cadeia de suprimentos. Se HBM continuar escasso e caro, ele agora possui uma arquitetura de inferência que contorna completamente essa restrição. Se o HBM normalizar, ele perderá 20 bilhões de dólares em uma empresa que foi avaliada em 6,9 bilhões há três meses. O prêmio de preço mostra a estimativa de probabilidade de Jensen. Ele pagou quase 3 vezes a avaliação na última rodada por uma escotilha de escape. E, para o que vale, a TrendForce projeta escassez de memória que vai se estender até o primeiro trimestre de 2026 e além. Samsung, SK Hynix e Micron estão todas desfrutando de margens operacionais de 40-60% e não têm nenhum incentivo para inundar o mercado. O oligopólio está se comportando exatamente como um oligopólio. A pergunta que ninguém está fazendo: se o cara que vende mais chips de IA acabou de gastar 20 bilhões de dólares para adquirir uma arquitetura que não usa DRAM, o que ele sabe sobre o suprimento de HBM que nós não sabemos?