hier zijn de belangrijkste punten van de podcast van Ilya Sutskever van vandaag: - superintelligentie in 5-20 jaar - huidige opschaling zal hard stagneren; we zijn terug bij echt onderzoek - superintelligentie = super-snelle continue leerling, geen voltooide orakel - modellen generaliseren 100x slechter dan mensen, de grootste blokkade voor AGI - we hebben een volledig nieuw ML-paradigma nodig (ik heb ideeën, kan ze nu niet delen) - de impact van AI zal hard aankomen, maar pas na economische diffusie - doorbraken hadden historisch gezien bijna geen rekenkracht nodig - SSI heeft genoeg gefocuste onderzoeksrekenkracht om te winnen - huidige RL verbruikt al meer rekenkracht dan pre-training