Na minha opinião, Dwarkesh cozinhou com isso: -Paradoxo RLVR: Laboratórios gastando bilhões pré-assando habilidades específicas, o que realmente gera uma tensão fundamental: se estivermos próximos de aprendizes parecidos com humanos, isso torna todo esse pré-treinamento inútil, já que eles aprenderiam na prática. -O verdadeiro valor do trabalho humano: Não precisamos de pipelines de treinamento personalizados para cada microtarefa; a IA atual tem. -Atraso de difusão = lidar com a difusão: Se os modelos fossem equivalentes a humanos, eles se integrariam mais rápido que os funcionários [Posso debater isso - proveniência dos dados, confiança do negócio na confiabilidade, receios de substituição, etc. podem razoavelmente atrasar a implantação da IA; mas, ainda assim, todos estaríamos convencidos de que é uma opção melhor e isso ainda não é verdade, então o ponto permanece na minha opinião]. -Ocorreu uma mudança de meta: Resolvemos o que achávamos serem gargalos de AGI (por exemplo, raciocínio), mas ainda não conseguimos automatizar 95% do trabalho de conhecimento. Inteligência é mais do que imaginávamos e definimos antes, e tudo bem admitir. - Gargalo de Aprendizagem Contínua: A explosividade futura da IA depende de resolver o aprendizado contínuo - agentes implantados, aprendendo com a experiência, fundindo conhecimento de volta a uma "mente coletiva". Muito longe disso, mas é otimista que podemos chegar lá!