Hay una creencia de que no podemos externalizar el pensamiento a estos agentes, pero me gustaría cuestionar un poco esto. No estoy seguro de eso cuando realmente debato el otro lado. Hay tanta literatura ahí fuera que no se ha explorado completamente, nueva información que se puede recopilar fácilmente en el momento de la inferencia, y trabajo que puede ser inspirado por otros dominios. La cantidad de personas talentosas para probar cosas ha estado limitada por el tiempo/la inteligencia/la motivación. Para mí, esto parece ser principalmente un problema de dinero ahora, que en realidad es un problema de computación. Si pudiera hacer una predicción para 2026, sería que habrá una corrección a esto. Que creeremos que estos modelos pueden inventar cosas novedosas en un grado mayor—que quizás nos superen.
Una observación interesante es que, a lo largo de un horizonte prolongado, los agentes mismos producen mucha información valiosa (a menudo verificada como resultado del trabajo) y encuentro esto muy interesante para que los modelos utilicen esa nueva información para explorar más. A veces, producirá resultados o información que aún no ha sido vista por los humanos o volverá a verificar la información en caso de que se haya informado incorrectamente.
142