2026 se está consolidando en 3 grandes apuestas donde si una falla resultaría en un colapso a corto plazo de la burbuja 1. centros de datos anthropic, Xai escalando agresivamente a 1M gpus. ambos planean alcanzar ese objetivo para el Q2. los modelos resultantes entrenados en esta infraestructura necesitan confirmar que la ley de escalado de computación sigue siendo efectiva. de lo contrario, indicará que necesitamos explorar una nueva arquitectura de modelo. esto también depende de que la infraestructura energética (power shell) se escale, aunque eso va a ser un problema durante la próxima década, por no hablar de este año. 2. memoria solo tenemos suficiente memoria este año para soportar 15GW de gpus mientras que los hyperscalers están apuntando a 30-40 en los próximos 2 años. estamos bastante justos aquí - si samsung, $MU o sk hynix fallan en su producción, esto detendrá la apuesta número 1. además, quien asegure la mayoría de esta capacidad de memoria para crear gpus ganará más dentro de la capacidad de producción restringida y ahora mismo eso es $NVDA 3. infraestructura más barata y efectiva la última gpu de nvidia, vera rubin, es 5X más performante pero, lo más importante, 4X más eficiente en computación, lo que significa que los costos de inferencia han caído - ¡inteligencia de frontera por centavos! habrá una abundancia de computación disponible para entrenar pero, más importante, usar ai este año, así que la paradoja de jevons necesita probarse a través de la creciente demanda. si eso falla, entonces las dos anteriores colapsan. en mi opinión, estoy menos preocupado por este - creo que los harnesses de agentes y el RL post-entrenamiento continuarán fortaleciendo los modelos. muy optimista