Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Dwarkesh cozinhou com este imo:
-Paradoxo RLVR: Laboratórios gastando bilhões pré-treinando habilidades específicas que revelam uma tensão fundamental: se estamos perto de aprendizes semelhantes a humanos, isso torna todo esse pré-treinamento inútil, uma vez que eles aprenderiam no trabalho.
-O verdadeiro valor do trabalho humano: Não precisamos de pipelines de treinamento personalizados para cada micro-tarefa; a IA atual faz isso.
-Atraso na difusão = cope: Se os modelos fossem equivalentes a humanos, eles se integrariam mais rapidamente do que os funcionários [Podemos debater isso - a proveniência dos dados, a confiança dos negócios na confiabilidade, medos de substituição, etc. podem razoavelmente atrasar a implementação da IA; mas, ainda assim, todos estaríamos convencidos de que é uma opção melhor e isso ainda não é verdade, então o ponto se mantém imo].
-O deslocamento de metas ocorreu: Resolvemos o que pensávamos serem gargalos da AGI (por exemplo, raciocínio), mas ainda não conseguimos automatizar 95% do trabalho de conhecimento. A inteligência é mais do que percebemos e definimos anteriormente, e tudo bem admitir isso.
-Gargalo de Aprendizado Contínuo: A explosão futura da IA depende de resolver o aprendizado contínuo - agentes implantados, aprendendo com a experiência, fundindo conhecimento de volta a uma "mente colmeia". Estamos longe disso, mas otimistas de que podemos chegar lá!
Top
Classificação
Favoritos

