Entrevista com um ex-funcionário da $ORCL sobre o panorama da IA e o futuro da Neocloud: - O especialista destaca uma mudança significativa na oferta de nuvem da $ORCL, o OCI agora oferece uma média de 66% de economia em custos de computação em comparação com outros parceiros hyperscale, posicionando-se para um crescimento rápido, apesar do seu histórico de design de rede deficiente. O especialista observa que a principal vantagem estratégica do OCI é o seu TCO previsível e baixo, contrastando com os custos imprevisíveis de concorrentes como $AMZN, $MSFT e $GOOGL, onde recursos de multi-região e DR podem levar a aumentos de preços inesperados de 30% a 40%. - De acordo com o especialista, os hyperscalers estão investindo massivamente em infraestrutura de GPU em data centers, principalmente para habilitar modelos de IA e bancos de dados vetoriais para uso dos clientes. No entanto, o especialista observa um desequilíbrio financeiro significativo a curto prazo: os custos de investimento dos hyperscalers são atualmente mais altos do que a receita gerada pela cobrança aos clientes, indicando que ainda não estão totalmente monetizados. Eles antecipam que levará de 2 a 3 anos para os hyperscalers recuperarem seu investimento e alcançarem um ponto de preço lucrativo. Isso se deve principalmente ao fato de que a indústria ainda está no meio do ciclo de vida da GPU e ainda está determinando os custos operacionais de longo prazo. - O especialista enfatiza que as neoclouds emergentes, como $CRWV e $NBIS, são uma fase temporária impulsionada por severas restrições de capacidade no mercado, onde a demanda por IA supera a oferta de GPU, principalmente da $NVDA. O especialista vê a atual alta demanda como uma "bolha de IA" que persistirá pelos próximos três a quatro anos. - Ele acredita que a arquitetura futura se concentrará na eficiência, priorizando um orçamento de CPU de 80% com apenas 10% alocado para uso de GPU sob demanda (para tarefas como inferência e ajuste fino) e os restantes 10% para segurança/governança. Em última análise, uma vez que os modelos de IA se tornem altamente eficientes, a necessidade de perseguir constantemente grandes clusters de GPU diminuirá, permitindo que a indústria se concentre em modelos de linguagem menores e ajustados que possam ser treinados dentro da própria tenência de nuvem de um cliente.