Sam Altman sagt, dass OpenAI schnell genug Einnahmen generieren muss, um die enormen Kosten für die Rechenleistung zu decken, die sie aufbauen. Momentan hat OpenAI nicht genug GPUs, um die Nachfrage zu decken, was tatsächlich ein gutes Problem ist. Es bedeutet, dass die Leute wollen, was sie bauen. Das eigentliche Risiko ist nicht die Knappheit, sondern das Überbauen von Rechenleistung, bevor es genug zahlende Kunden gibt, die sie profitabel nutzen können. OpenAI gibt Milliarden im Voraus für Rechenzentren und GPUs aus und wettet, dass sie diese Kapazität mit Einnahmen aus ChatGPT-Abonnements, Unternehmenskunden, die ihre Modelle einbetten, und Unternehmen, die auf der API aufbauen, füllen können. Es ist wie der Bau eines teuren Kinos; leere Sitze sind eine Katastrophe, volle Sitze verwandeln es in eine Geldmaschine. Die entscheidende Erkenntnis ist, dass die Trainingskosten in absoluten Dollar weiter steigen werden, aber als Prozentsatz der Einnahmen sinken, wenn die Nachfrage richtig skaliert. Drei Kräfte machen das möglich: Verbrauchersubscriptionen, Unternehmensverträge und Effizienzgewinne, die jeden Dollar Rechenleistung im Laufe der Zeit produktiver machen. Unternehmen sind der kritischste Hebel, da Firmen pro Einheit Rechenleistung viel mehr zahlen werden als Einzelbenutzer. Das Risiko, das Sam Altman anerkennt, besteht darin, zu viel Rechenleistung zu schnell aufzubauen und die Nachfrage hinterherzuhinken zu lassen. Wenn das passiert, bleibt OpenAI mit Milliarden an ungenutzter Infrastruktur zurück und die These bricht zusammen. Aber sein Vertrauen kommt daher, dass er mehrere unabhängige Nachfrageströme sieht, die gleichzeitig auf die Rechenleistung zugreifen, zusammen mit genügend Flexibilität, um Anpassungen vorzunehmen, falls das Timing oder die Wirtschaftlichkeit leicht abweichen.