Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Entrevista com um ex-funcionário $ORCL sobre o cenário da IA e o futuro da Neocloud:
- Expert destaca uma mudança significativa na oferta de nuvem da $ORCL, o OCI agora oferece uma economia média de 66% nos custos de computação em comparação com outros parceiros de hiperescala, posicionando-a para um rápido crescimento apesar de seu design de rede historicamente ruim. O especialista observa que a principal vantagem estratégica do OCI é seu TCO previsível e baixo, contrastando-o com os custos imprevisíveis de concorrentes como $AMZN, $MSFT e $GOOGL, onde recursos multirregional e DR podem levar a aumentos inesperados de preços de 30% a 40%.
- Segundo o especialista, os hyperscalers estão investindo massivamente em infraestrutura de GPUs de data center, principalmente para viabilizar modelos de IA e bancos de dados vetoriais para uso dos clientes. No entanto, o especialista observa um desequilíbrio financeiro significativo de curto prazo: os custos de investimento dos hyperscalers são atualmente maiores do que a receita gerada pela faturação dos clientes, indicando que ainda não estão totalmente monetizados. Eles prevêem que levará de 2 a 3 anos para que os hiperescaladores recuperem seu investimento e alcancem um preço lucrativo. Isso ocorre principalmente porque a indústria ainda está no meio do ciclo de vida da GPU e ainda está determinando os custos operacionais de longo prazo.
- Especialista enfatiza que as neoclouds emergentes, como $CRWV e $NBIS, são uma fase temporária impulsionada por severas limitações de capacidade no mercado, onde a demanda por IA supera a oferta de GPUs, principalmente de $NVDA. O especialista vê a atual alta demanda como uma "bolha de IA" que persistirá pelos próximos três a quatro anos.
- Ele acredita que a arquitetura futura focará na eficiência, priorizando um orçamento de 80% da CPU, com apenas 10% alocado para uso sob demanda da GPU (para tarefas como inferência e ajuste fino) e os restantes 10% para segurança/governança. No fim das contas, quando os modelos de IA se tornarem altamente eficientes, a necessidade de estar constantemente perseguindo grandes clusters de GPU diminuirá, permitindo que a indústria foque em modelos de linguagem menores e refinados, treináveis dentro da própria inquilinação em nuvem do cliente.




Melhores
Classificação
Favoritos
