Entrevista con un ex empleado de $ORCL sobre el panorama de la IA y el futuro de Neocloud: - El experto destaca un cambio significativo en la oferta en la nube de $ORCL, OCI ahora proporciona un ahorro promedio del 66% en costos de computación en comparación con otros socios de hyperscale, posicionándolo para un crecimiento rápido a pesar de su históricamente deficiente diseño de red. El experto señala que la principal ventaja estratégica de OCI es su TCO predecible y bajo, contrastándolo con los costos impredecibles de competidores como $AMZN, $MSFT y $GOOGL, donde las características de múltiples regiones y DR pueden llevar a aumentos de precios inesperados del 30% al 40%. - Según el experto, los hyperscalers están invirtiendo masivamente en infraestructura de GPU en centros de datos, principalmente para habilitar modelos de IA y bases de datos vectoriales para el uso de los clientes. Sin embargo, el experto observa un desequilibrio financiero significativo a corto plazo: los costos de inversión de los hyperscalers son actualmente más altos que los ingresos generados por la facturación de los clientes, lo que indica que aún no están completamente monetizados. Anticipan que tomará de 2 a 3 años para que los hyperscalers recuperen su inversión y alcancen un punto de precio rentable. Esto se debe principalmente a que la industria aún está en medio del ciclo de vida de la GPU y todavía está determinando los costos operativos a largo plazo. - El experto enfatiza que los neoclouds emergentes, como $CRWV y $NBIS, son una fase temporal impulsada por severas restricciones de capacidad en el mercado, donde la demanda de IA supera la oferta de GPU, principalmente de $NVDA. El experto considera que la alta demanda actual es una "burbuja de IA" que persistirá durante los próximos tres a cuatro años. - Cree que la arquitectura futura se centrará en la eficiencia, priorizando un presupuesto de CPU del 80% con solo un 10% asignado para el uso de GPU bajo demanda (para tareas como inferencia y ajuste fino) y el 10% restante para seguridad/gobernanza. En última instancia, una vez que los modelos de IA se vuelvan altamente eficientes, la necesidad de perseguir constantemente grandes clústeres de GPU disminuirá, permitiendo a la industria centrarse en modelos de lenguaje más pequeños y ajustados que se puedan entrenar dentro de la tenencia en la nube de un cliente.