Sam Altman dit qu'OpenAI doit augmenter ses revenus suffisamment rapidement pour couvrir les énormes coûts de calcul qu'ils sont en train de construire. En ce moment, OpenAI n'a pas assez de GPU pour répondre à la demande, ce qui est en fait un bon problème. Cela signifie que les gens veulent ce qu'ils construisent. Le véritable risque n'est pas la rareté, mais la surconstruction de capacités de calcul avant qu'il n'y ait suffisamment de clients payants pour les utiliser de manière rentable. OpenAI dépense des milliards d'avance pour des centres de données et des GPU, pariant qu'ils peuvent remplir cette capacité avec des revenus provenant des abonnements à ChatGPT, des clients d'entreprise intégrant leurs modèles et des entreprises construisant sur l'API. C'est comme construire un cinéma coûteux, des sièges vides sont un désastre, des sièges pleins en font une machine à cash. L'idée clé est que les coûts de formation continueront d'augmenter en dollars absolus mais diminueront en pourcentage des revenus si la demande évolue correctement. Trois forces rendent cela possible : les abonnements des consommateurs, les contrats d'entreprise et les gains d'efficacité qui rendent chaque dollar de calcul plus productif au fil du temps. L'entreprise est le levier le plus critique car les entreprises paieront beaucoup plus par unité de calcul que les utilisateurs individuels. Le risque que Sam Altman reconnaît est de construire trop de capacités de calcul trop rapidement et de voir la demande en retard. Si cela se produit, OpenAI se retrouve avec des milliards d'infrastructures sous-utilisées et la thèse s'effondre. Mais sa confiance vient de la constatation de plusieurs sources de demande indépendantes tirant sur le calcul en même temps, avec suffisamment de flexibilité pour s'ajuster si le timing ou l'économie glissent légèrement.