En mi opinión, Dwarkesh cocinaba con esto: -Paradoja RLVR: Los laboratorios gastan miles de millones en pre-hornear habilidades específicas, lo que genera una tensión fundamental: si estamos cerca de aprendices parecidos a humanos, todo este preentrenamiento hace inútil porque aprenderían en el trabajo. -El verdadero valor del trabajo humano: No necesitamos pipelines de entrenamiento personalizados para cada microtarea; la IA actual sí. -Retraso de difusión = adaptación: Si los modelos fueran equivalentes a humanos, se integrarían más rápido que los empleados [Puedo debatir esto: procedencia de datos, confianza empresarial en la fiabilidad, temores de reemplazo, etc., pueden retrasar razonablemente el despliegue de IA; pero, aún así, todos estaríamos convencidos de que es una mejor opción y eso aún no es cierto, así que el punto sigue siendo en mi opinión]. -Se ha producido un cambio de objetivo: Hemos resuelto lo que pensábamos que eran cuellos de botella en la AGI (por ejemplo, razonamiento) pero aún no podemos automatizar el 95% del trabajo de conocimiento. La inteligencia es más de lo que pensábamos y de lo que ya habíamos definido, y está bien admitirlo. -Cuello de botella del aprendizaje continuo: La explosividad futura de la IA depende de resolver el aprendizaje continuo: agentes desplegados, aprender de la experiencia, fusionar conocimiento de nuevo en una "mente colmena". ¡Está lejos de esto, pero es optimista de que podamos llegar ahí!