Sam Altman säger att OpenAI behöver öka intäkterna tillräckligt snabbt för att betala de enorma beräkningskostnader de bygger. Just nu har OpenAI inte tillräckligt med GPU:er för att möta efterfrågan, vilket faktiskt är ett bra problem. Det betyder att folk vill ha det de bygger. Den verkliga risken är inte brist, utan att bygga upp beräkningskraft innan det finns tillräckligt många betalande kunder för att använda den lönsamt. OpenAI spenderar miljarder i förskott på datacenter och GPU:er, och satsar på att de kan fylla den kapaciteten med intäkter från ChatGPT-prenumerationer, företagskunder som integrerar sina modeller och företag som bygger vidare på API:et. Det är som att bygga en dyr biograf, tomma platser är en katastrof, fulla platser förvandlar den till en uttagsautomat. Den viktigaste insikten är att utbildningskostnaderna kommer att fortsätta stiga i absoluta belopp men krympa som andel av intäkterna om efterfrågan ökar korrekt. Tre krafter gör det möjligt: konsumentprenumerationer, företagsavtal och effektivitetsvinster som gör varje dollar i beräkning mer produktiv över tid. Enterprise är den mest kritiska hävstången eftersom företag betalar mycket mer per enhet beräkning än enskilda användare. Risken som Sam Altman erkänner är att bygga för mycket beräkning för snabbt och att efterfrågan blir lagd. Om det händer blir OpenAI kvar med miljarder i underutnyttjad infrastruktur och tesen bryts. Men hans självförtroende kommer från att se flera oberoende efterfrågekällor dra på beräkningarna samtidigt, tillsammans med tillräcklig flexibilitet för att justera om tidpunkten eller ekonomin skulle slinka lite.