Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Na minha opinião, Dwarkesh cozinhou com isso:
-Paradoxo RLVR: Laboratórios gastando bilhões pré-assando habilidades específicas, o que realmente gera uma tensão fundamental: se estivermos próximos de aprendizes parecidos com humanos, isso torna todo esse pré-treinamento inútil, já que eles aprenderiam na prática.
-O verdadeiro valor do trabalho humano: Não precisamos de pipelines de treinamento personalizados para cada microtarefa; a IA atual tem.
-Atraso de difusão = lidar com a difusão: Se os modelos fossem equivalentes a humanos, eles se integrariam mais rápido que os funcionários [Posso debater isso - proveniência dos dados, confiança do negócio na confiabilidade, receios de substituição, etc. podem razoavelmente atrasar a implantação da IA; mas, ainda assim, todos estaríamos convencidos de que é uma opção melhor e isso ainda não é verdade, então o ponto permanece na minha opinião].
-Ocorreu uma mudança de meta: Resolvemos o que achávamos serem gargalos de AGI (por exemplo, raciocínio), mas ainda não conseguimos automatizar 95% do trabalho de conhecimento. Inteligência é mais do que imaginávamos e definimos antes, e tudo bem admitir.
- Gargalo de Aprendizagem Contínua: A explosividade futura da IA depende de resolver o aprendizado contínuo - agentes implantados, aprendendo com a experiência, fundindo conhecimento de volta a uma "mente coletiva". Muito longe disso, mas é otimista que podemos chegar lá!
Melhores
Classificação
Favoritos

