O resumo; dr da entrevista de Dwarkesh Patel com Ilya Sutskever • As abordagens atuais vão "ir um pouco longe e depois se esvair" elas vão continuar melhorando, mas não vão entregar AGI. • O tipo de sistema que funcionaria seria algo "que ainda não sabemos como construir." • Impactos significativos no mercado de trabalho são esperados nos próximos anos. • Principal gargalo: generalização. Modelos são muito piores que humanos nisso. • Você pode treinar em qualquer problema de programação competitiva, e o modelo ainda não desenvolve um verdadeiro "gosto", enquanto um adolescente aprende a dirigir em ~10 horas. • As pontuações de avaliação parecem ótimas, mas o desempenho no mundo real fica atrasado porque o treinamento RL acaba otimizando para as próprias avaliações. • Os verdadeiros hackers recompensadores são os pesquisadores que criam esses benchmarks e ciclos de treinamento. • Ele diz que tem ideias sobre o que está faltando, mas não as compartilha publicamente. • ASI, no entanto, dentro de 5 a 20 anos "Sabe o que é loucura? Que tudo isso é real" Eu realmente senti essa frase.