Aqui estão os pontos mais importantes do podcast de Ilya Sutskever de hoje: - Superinteligência em 5-20 anos - a escalonamento de corrente vai travar bruscamente; Voltamos à pesquisa real - superinteligência = aprendiz contínuo super-rápido, não oráculo finalizado - modelos generalizam 100 vezes pior que em humanos, o maior bloqueador de AGI - preciso de um paradigma de ML completamente novo (tenho ideias, não posso compartilhar agora) - O impacto da IA será forte, mas somente após a difusão econômica - avanços historicamente precisavam de quase nenhum processamento - O SSI tem computação de pesquisa focada suficiente para vencer - o RL atual já consome mais computação do que o pré-treinamento