Sam Altman está dizendo que a OpenAI precisa aumentar a receita rápido o suficiente para pagar os enormes custos de computação que estão construindo. No momento, a OpenAI não tem GPUs suficientes para atender à demanda, o que na verdade é um bom problema. Significa que as pessoas querem o que estão construindo. O verdadeiro risco não é a escassez, é sobreconstruir computação antes que haja clientes pagantes suficientes para usá-la de forma lucrativa. A OpenAI está gastando bilhões de cara em data centers e GPUs, apostando que pode preencher essa capacidade com receita de assinaturas do ChatGPT, clientes corporativos incorporando seus modelos e negócios que desenvolvem sobre a API. É como construir um cinema caro, cadeiras vazias são um desastre, as cadeiras cheias transformam tudo em um caixa eletrônico. A principal percepção é que os custos de treinamento continuarão subindo em valores absolutos, mas diminuirão como porcentagem da receita se a demanda escalar corretamente. Três forças tornam isso possível: assinaturas de consumidores, acordos empresariais e ganhos de eficiência que tornam cada dólar de computação mais produtivo ao longo do tempo. Empresas são a alavanca mais crítica porque as empresas pagam muito mais por unidade de processamento do que os usuários individuais. O risco que Sam Altman reconhece é construir computação demais rápido e ter atraso na demanda. Se isso acontecer, a OpenAI fica com bilhões em infraestrutura subutilizada e a tese se quebra. Mas sua confiança vem de ver várias fontes independentes de demanda puxando o cálculo ao mesmo tempo, junto com flexibilidade suficiente para ajustar se o timing ou a economia atrasarem um pouco.