Sam Altman está diciendo que OpenAI necesita aumentar sus ingresos lo suficientemente rápido para cubrir los enormes costos de computación que están construyendo. En este momento, OpenAI no tiene suficientes GPUs para satisfacer la demanda, lo cual es en realidad un buen problema. Significa que la gente quiere lo que están construyendo. El verdadero riesgo no es la escasez, es construir en exceso la capacidad de computación antes de que haya suficientes clientes que paguen para usarla de manera rentable. OpenAI está gastando miles de millones por adelantado en centros de datos y GPUs, apostando a que pueden llenar esa capacidad con ingresos de suscripciones de ChatGPT, clientes empresariales que integran sus modelos y negocios que construyen sobre la API. Es como construir un costoso cine, los asientos vacíos son un desastre, los asientos llenos lo convierten en una máquina de hacer dinero. La clave es que los costos de entrenamiento seguirán aumentando en dólares absolutos pero disminuirán como porcentaje de los ingresos si la demanda escala correctamente. Tres fuerzas hacen eso posible: suscripciones de consumidores, acuerdos empresariales y ganancias de eficiencia que hacen que cada dólar de computación sea más productivo con el tiempo. El sector empresarial es la palanca más crítica porque las empresas pagarán mucho más por unidad de computación que los usuarios individuales. El riesgo que Sam Altman reconoce es construir demasiada capacidad de computación demasiado rápido y que la demanda se retrase. Si eso sucede, OpenAI se queda con miles de millones en infraestructura subutilizada y la tesis se rompe. Pero su confianza proviene de ver múltiples fuentes de demanda independientes tirando de la computación al mismo tiempo, junto con suficiente flexibilidad para ajustarse si el tiempo o la economía se retrasan ligeramente.