Ein sehr aufschlussreiches Interview mit einem $NVDA-Mitarbeiter (auch ein ehemaliger $GOOGL-Mitarbeiter) zum Thema $NVDA/ASIC: 1. Er glaubt nicht, dass die Aufteilung zwischen $NVDA und ASICs in den nächsten 5 Jahren 50/50 sein wird, sondern eher 80/20 oder 70/30 zugunsten von $NVDA. Er denkt, dass $GOOGL TPUs Kosteneinsparungen bringen, aber er glaubt nicht, dass sie so leistungsfähig sind wie $NVDA GPUs. Er erwähnt, dass eine TPU auf Basis von Token pro Sekunde etwa 1500-2000 Token pro Sekunde erreicht, während eine H100 in der optimierten Einstellung bei 2000-3500 Token pro Sekunde liegt. 2. Er gibt Beispiele, wann TPUs oder GPUs gut einsetzbar sind. Wenn man ChatGPT5-Inferenz für einfache Anfragen wie das Zeichnen von Bildern ausführt, denkt er, dass TPUs kosteneffektiver wären. Er erwähnt auch, dass sie beobachten, dass $GOOGL den Kunden erhebliche Rabatte anbietet, um TPUs zu nutzen. 3. Er erwähnt, dass seiner Meinung nach Elons xAI eine enorme Vertriebsmannschaft aufbaut und massive Störungen verursacht, und dass ihr Ziel darin besteht, Rechenleistung zu verkaufen und $ORCL zu werden. 4. Er sagt, dass $NVDA in einigen Fällen neue GPUs/Beschleuniger einsetzt und alte von Kunden zurückkauft: »Wenn ein Kunde A100s hat und auf H100s umsteigen möchte, kaufen wir die Server und die Chips zurück und verkaufen sie dann ins Ausland.« 5. Er deutet an, dass er glaubt, dass $CRWV in den nächsten 3-5 Jahren ein »absolutes Monster« sein wird, da sie von $NVDA priorisiert werden. Er deutet auch auf einige bedeutende Ankündigungen auf der nächsten GTC im Oktober hin, insbesondere im Hinblick auf die US-Produktion. gefunden bei @AlphaSenseInc