Dwarkesh kookte met deze imo: -RLVR-paradox: Labs die miljarden uitgeven aan het vooraf trainen van specifieke vaardigheden, wat een fundamentele spanning oproept: als we dicht bij menselijke lerenden zijn, maakt al deze pre-training het zinloos, aangezien ze on-the-job zouden leren. -De echte waarde van menselijke arbeid: We hebben geen aangepaste trainingspijplijnen nodig voor elke micro-taak; huidige AI doet dat wel. -Diffusievertraging = cope: Als modellen menselijk-equivalent waren, zouden ze sneller integreren dan werknemers [Hier kan over gedebatteerd worden - gegevensherkomst, zakelijke vertrouwen in betrouwbaarheid, vervangingsangsten, enz. kunnen AI-implementatie redelijkerwijs vertragen; maar we zouden nog steeds allemaal overtuigd zijn dat het een betere optie is en dat is nog niet waar, dus het punt blijft staan imo]. -Doelverschuiving heeft plaatsgevonden: We hebben opgelost wat we dachten dat AGI-flessenhalzen waren (bijv. redeneren), maar kunnen nog steeds 95% van het kenniswerk niet automatiseren. Intelligentie is meer dan we ons realiseerden en eerder hebben gedefinieerd en dat is oké om toe te geven. -Continue Leerflessenhals: De explosiviteit van toekomstige AI hangt af van het oplossen van continue leren - agenten die worden ingezet, leren van ervaring, kennis terug samenvoegen naar een "bijenhoofd". We zijn daar nog ver van verwijderd, maar ik ben optimistisch dat we daar kunnen komen!