Un'intervista molto interessante con un dipendente di $NVDA (anche un ex dipendente di $GOOGL) sul tema $NVDA/ASIC: 1. Non pensa che la divisione tra $NVDA e ASIC nei prossimi 5 anni sarà 50/50, ma più simile a 80/20 o 70/30 a favore di $NVDA. Pensa che i TPU di $GOOGL portino risparmi sui costi, ma non crede che siano performanti come le GPU di $NVDA. Menziona che su base token-per-secondo, un TPU è intorno a 1500-2000 token al secondo, mentre un H100 è a 2000-3500 token al secondo nell'impostazione ottimizzata. 2. Fa esempi di quando i TPU o le GPU sono buoni per l'uso. Se esegui l'inferenza di ChatGPT5 per query semplici come il disegno di immagini, pensa che i TPU sarebbero più economici. Menziona anche che stanno vedendo che $GOOGL sta offrendo sconti significativi ai clienti per utilizzare i TPU. 3. Menziona che, a suo avviso, l'xAI di Elon sta costruendo una straordinaria forza vendita e sta creando una grande disruption, e che il loro obiettivo è vendere capacità di calcolo e diventare $ORCL. 4. Dice che $NVDA in alcuni casi sta inserendo nuove GPU/acceleratori e riacquistando quelle vecchie dai clienti: »Se un cliente ha A100 e vuole passare a H100, riacquisteremo i server e i chip e poi li rivenderemo all'estero.« 5. Suggerisce che crede che $CRWV sarà un »mostro assoluto« nei prossimi 3-5 anni poiché stanno ricevendo priorità da $NVDA. Suggerisce anche alcuni annunci significativi al prossimo GTC in ottobre, specificamente sul lato della produzione negli Stati Uniti. trovato su @AlphaSenseInc