En mycket insiktsfull intervju med en $NVDA anställd (även en tidigare $GOOGL anställd) om $NVDA/ASIC-ämnet: 1. Han tror inte att fördelningen mellan $NVDA och ASICs under de kommande 5 åren kommer att vara 50/50, utan snarare 80/20 eller 70/30 till $NVDA fördel. Han tror att $GOOGL TPU:er ger kostnadsbesparingar, men tror inte att de är lika effektiva som $NVDA GPU:er. Han nämner att på token-per-sekund-basis är en TPU cirka 1500-2000 tokens per sekund, medan en H100 ligger på 2000-3500 tokens per sekund i den optimerade inställningen. 2. Han ger exempel på när TPU:er eller GPU:er är bra att använda. Om du körde ChatGPT5-inferens för enkla frågor som bildritning tror han att TPU:er skulle vara mer kostnadseffektiva. Han nämner också att de ser att $GOOGL erbjuder betydande rabatter till kunder för att använda TPU:er. 3. Han nämner att Elons xAI enligt hans uppfattning bygger upp en enorm säljkår och gör en enorm störning, och att deras mål är att sälja datorer och bli $ORCL. 4. Han säger att $NVDA i vissa fall är att sätta in nya GPU:er/acceleratorer och köpa tillbaka gamla från kunder: »Om en kund har A100 och de vill gå till H100, köper vi tillbaka servrarna och chipen och säljer dem sedan vidare utomlands.« 5. Han hintar om att han tror att $CRWV kommer att vara ett »absolut monster« de närmaste 3-5 åren eftersom de får prioritering från $NVDA. Han hintar också om några viktiga tillkännagivanden vid nästa GTC i oktober, särskilt på den amerikanska tillverkningssidan. Finns på @AlphaSenseInc