Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Lo que dice Sam Altman es que OpenAI necesita aumentar los ingresos lo suficientemente rápido como para cubrir los enormes costes de cómputo que están generando.
Ahora mismo, OpenAI no tiene suficientes GPUs para satisfacer la demanda, lo cual en realidad es un buen problema.
Significa que la gente quiere lo que está construyendo.
El verdadero riesgo no es la escasez, es sobrecargar el cálculo antes de que haya suficientes clientes que paguen para usarlo de forma rentable.
OpenAI está gastando miles de millones de dólares por adelantado en centros de datos y GPUs, apostando a que pueden cubrir esa capacidad con ingresos de suscripciones a ChatGPT, clientes empresariales que integran sus modelos y empresas que construyan sobre la API.
Es como construir un cine caro, los asientos vacíos son un desastre, los asientos llenos lo convierten en un cajero automático.
La idea clave es que los costes de formación seguirán aumentando en dólares absolutos, pero disminuirán como porcentaje de los ingresos si la demanda crece correctamente.
Tres fuerzas lo hacen posible: suscripciones de consumidores, acuerdos empresariales y ganancias de eficiencia que hacen que cada dólar de computación sea más productivo con el tiempo.
La empresa es la palanca más crítica porque las empresas pagarán mucho más por unidad de cálculo que los usuarios individuales.
El riesgo que reconoce Sam Altman es construir demasiado cálculo demasiado rápido y tener retraso en la demanda.
Si eso ocurre, OpenAI se queda con miles de millones en infraestructura infrautilizada y la tesis se rompe.
Pero su confianza proviene de ver que múltiples fuentes de demanda independientes se activan en el cálculo a la vez, junto con suficiente flexibilidad para ajustar si el momento o la economía se retrasan ligeramente.
Populares
Ranking
Favoritas
