Ursprünglich dachten alle, das Skript für AI sei bereits festgeschrieben: Das Modell schaut auf OpenAI, die Chips auf Nvidia. Doch als Gemini 3 herauskam, drehte sich die Handlung plötzlich. Google hat nicht nur das Modell groß präsentiert, sondern auch den echten Trumpf auf den Tisch gelegt: TPU läuft nicht nur in der Cloud, sondern soll jetzt auch in die Rechenzentren von Meta einziehen. Der Markt hat sofort verstanden: Die vollständige Google-Kette, die Google aufbauen möchte, beginnt Gestalt anzunehmen. Das hat auch Nvidia verstanden, Google hat gerade 1 Million TPU an Anthropic geworfen, Jensen Huang hat sofort mit mehreren Milliarden investiert, um die andere Seite wieder ins GPU-Lager zurückzuschließen. Die Bewegung war so schnell, als wäre man gestochen worden. Wichtig zu beachten: Das ist das erste Mal, dass jemand bewiesen hat, dass neben GPU auch TPU die stärksten Modelle unterstützen kann. Und das zu einem günstigeren Preis und mit weniger Stromverbrauch. In Zukunft wird es für Nvidia nicht mehr so bequem sein wie im letzten Jahr. Die Geschichte ist noch nicht zu Ende, aber es ist offensichtlich: Nachdem Google eingemischt hat, beginnt sich die Erzählung der AI-Lieferkette zu verändern, und Nvidia muss anfangen, eine Rechnung zu machen, die sie noch nie gemacht haben. Setzen Sie auf Google.