Dwarkesh kokte med dette, etter min mening: -RLVR-paradokset: Labs bruker milliarder på forhåndsbaking av spesifikke ferdigheter, noe som skaper en grunnleggende spenning: hvis vi er nær menneskelignende elever, blir all denne fortreningen meningsløs siden de ville lært på jobben. -Menneskelig arbeidskrafts reelle verdi: Vi trenger ikke skreddersydde treningspipelines for hver mikrooppgave; nåværende AI gjør det. -Diffusjonsforsinkelse = takling: Hvis modellene var menneskelig ekvivalente, ville de integreres raskere enn ansatte [Kan diskutere dette – dataopprinnelse, forretningstilliten til pålitelighet, frykt for utskifting osv. kan rimeligvis bremse AI-utrulling; men vi ville fortsatt alle vært overbevist om at det er et bedre alternativ, og det stemmer ikke ennå, så poenget står etter min mening]. -Målendring har skjedd: Vi løste det vi trodde var AGI-flaskehalser (f.eks. resonnement), men klarer ennå ikke å automatisere 95 % av kunnskapsarbeidet. Intelligens er mer enn vi innså og tidligere har definert, og det er greit å innrømme. -Kontinuerlig læringsflaskehals: Fremtidig AI-eksplosivitet avhenger av å løse kontinuerlig læring – agenter utplassert, læring av erfaring, og å slå sammen kunnskap tilbake til et «kollektivt sinn». Langt unna dette, men optimistisk at vi kan komme dit!