ecco i punti più importanti del podcast di oggi di Ilya Sutskever: - superintelligenza in 5-20 anni - l'attuale scalabilità si fermerà bruscamente; siamo tornati alla ricerca reale - superintelligenza = apprenditore continuo super-veloce, non oracolo finito - i modelli generalizzano 100 volte peggio degli esseri umani, il più grande ostacolo all'AGI - è necessario un paradigma ML completamente nuovo (ho idee, non posso condividerle ora) - l'impatto dell'AI colpirà duramente, ma solo dopo la diffusione economica - le scoperte storicamente hanno richiesto quasi nessun calcolo - SSI ha abbastanza calcolo di ricerca focalizzato per vincere - l'attuale RL consuma già più calcolo del pre-addestramento