Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Sam Altman está dizendo que a OpenAI precisa aumentar a receita rápido o suficiente para pagar os enormes custos de computação que estão construindo.
No momento, a OpenAI não tem GPUs suficientes para atender à demanda, o que na verdade é um bom problema.
Significa que as pessoas querem o que estão construindo.
O verdadeiro risco não é a escassez, é sobreconstruir computação antes que haja clientes pagantes suficientes para usá-la de forma lucrativa.
A OpenAI está gastando bilhões de cara em data centers e GPUs, apostando que pode preencher essa capacidade com receita de assinaturas do ChatGPT, clientes corporativos incorporando seus modelos e negócios que desenvolvem sobre a API.
É como construir um cinema caro, cadeiras vazias são um desastre, as cadeiras cheias transformam tudo em um caixa eletrônico.
A principal percepção é que os custos de treinamento continuarão subindo em valores absolutos, mas diminuirão como porcentagem da receita se a demanda escalar corretamente.
Três forças tornam isso possível: assinaturas de consumidores, acordos empresariais e ganhos de eficiência que tornam cada dólar de computação mais produtivo ao longo do tempo.
Empresas são a alavanca mais crítica porque as empresas pagam muito mais por unidade de processamento do que os usuários individuais.
O risco que Sam Altman reconhece é construir computação demais rápido e ter atraso na demanda.
Se isso acontecer, a OpenAI fica com bilhões em infraestrutura subutilizada e a tese se quebra.
Mas sua confiança vem de ver várias fontes independentes de demanda puxando o cálculo ao mesmo tempo, junto com flexibilidade suficiente para ajustar se o timing ou a economia atrasarem um pouco.
Melhores
Classificação
Favoritos
