Sam Altman sier at OpenAI må øke inntektene raskt nok til å dekke de enorme beregningskostnadene de bygger. Akkurat nå har ikke OpenAI nok GPU-er til å møte etterspørselen, noe som faktisk er et godt problem. Det betyr at folk vil ha det de bygger. Den virkelige risikoen er ikke knapphet, men overbygging av datakraft før det er nok betalende kunder til å bruke den lønnsomt. OpenAI bruker milliarder i starten på datasentre og GPU-er, og satser på at de kan fylle denne kapasiteten med inntekter fra ChatGPT-abonnementer, bedriftskunder som integrerer modellene sine og virksomheter som bygger videre på API-et. Det er som å bygge en dyr kino, tomme seter er en katastrofe, fulle seter gjør den om til en minibank. Den viktigste innsikten er at opplæringskostnadene vil fortsette å stige i absolutte dollar, men krympe som andel av inntektene hvis etterspørselen skalerer riktig. Tre krefter gjør dette mulig: forbrukerabonnementer, bedriftsavtaler og effektivitetsgevinster som gjør hver krone mer produktiv over tid. Enterprise er det mest kritiske verktøyet fordi bedrifter betaler langt mer per enhet compute enn individuelle brukere. Risikoen Sam Altman erkjenner er å bygge for mye datakraft for raskt og ha etterspørselsforsinkelse. Hvis det skjer, sitter OpenAI igjen med milliarder i underutnyttet infrastruktur, og tesen faller sammen. Men hans selvtillit kommer av å se flere uavhengige etterspørselskilder trekke på beregningen samtidig, sammen med nok fleksibilitet til å justere hvis timingen eller økonomien svikter litt.