Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dwarkesh Patel
Estava especialmente curioso para @karpathy perguntar por que os carros autônomos levaram uma década + de passeios de demonstração estelares para até mesmo um pouco implantados. Andrej liderou a IA na Tesla por 5 anos.
Eu realmente queria saber se esses atritos deveriam alongar nossos cronogramas de AGI ou se eram idiossincráticos para a direção autônoma.
Dirigir tem um custo de falha muito alto. Os humanos são motoristas surpreendentemente confiáveis - temos um acidente grave a cada 400.000 milhas / 7 anos. E os carros autônomos precisam igualar ou superar esse perfil de segurança antes de serem implantados.
Mas a maioria dos domínios é assim? Antes da entrevista, parecia-me que quase todos os domínios aos quais gostaríamos de conectar a AGI têm um custo de falha muito menor. Se os engenheiros de software totalmente autônomos não pudessem cometer um erro por 7 anos, a implantação seria realmente super lenta.
Andrej fez um ponto interessante que eu não tinha ouvido antes: em comparação com a direção autônoma, a engenharia de software tem um custo de falha mais alto (e potencialmente ilimitado):
> Se você estiver escrevendo código de nível de produção real, qualquer tipo de erro pode levar a uma vulnerabilidade de segurança. Centenas de milhões de números pessoais do Seguro Social de pessoas podem vazar.
> Na direção autônoma, se as coisas derem errado, você pode se machucar. Existem resultados piores. Mas em software, é quase ilimitado o quão terrível algo pode ser.
> De certa forma, a engenharia de software é um problema muito mais difícil [do que a direção autônoma]. A direção autônoma é apenas uma das milhares de coisas que as pessoas fazem. É quase como uma única vertical. Considerando que, quando estamos falando de engenharia de software geral, há mais área de superfície.
Há potencialmente outra razão pela qual a transição da AGI LLM -> amplamente implantada pode acontecer muito mais rápido: os LLMs nos dão percepção, representações e bom senso (para lidar com exemplos fora de distribuição) gratuitamente, enquanto estes tiveram que ser moldados do zero para carros autônomos. Perguntei a Andrej sobre isso:
> não sei quanto estamos recebendo de graça. Os LLMs ainda são bastante falíveis e têm muitas lacunas que ainda precisam ser preenchidas. Não acho que estamos obtendo uma generalização mágica completamente fora da caixa.
> O outro aspecto ao qual eu queria voltar é que os carros autônomos ainda não estão nem perto de terminar. As implantações são mínimas. Até a Waymo tem muito poucos carros. Eles construíram algo que vive no futuro. Eles tiveram que recuar o futuro, mas tiveram que torná-lo antieconômico.
> Além disso, quando você olha para esses carros e não há ninguém dirigindo, há mais humanos no circuito do que você poderia esperar. Em certo sentido, não removemos a pessoa, nós a movemos para algum lugar onde você não pode vê-la.

Dwarkesh Patel18 de out. de 2025
A entrevista @karpathy
0:00:00 - AGI ainda está a uma década de distância
0:30:33 - Déficits cognitivos LLM
0:40:53 - RL é terrível
0:50:26 - Como os humanos aprendem?
1:07:13 - AGI se misturará a um crescimento de 2% do PIB
1:18:24 - ASI
1:33:38 - Evolução da inteligência e cultura
1:43:43 – Por que a direção autônoma demorou tanto
1:57:08 - Futuro da educação
Procure o Dwarkesh Podcast no YouTube, Apple Podcasts, Spotify, etc. Aproveite!
126,14K
Melhores
Classificação
Favoritos
