Dwarkesh ha cucinato con questo imo: - Paradosso RLVR: I laboratori spendono miliardi per pre-addestrare abilità specifiche che rivelano una tensione fondamentale: se siamo vicini a apprendisti simili agli esseri umani, tutto questo pre-addestramento diventa inutile poiché imparerebbero sul campo. - Il vero valore del lavoro umano: Non abbiamo bisogno di pipeline di addestramento personalizzate per ogni micro-compito; l'AI attuale lo fa. - Ritardo di diffusione = coping: Se i modelli fossero equivalenti agli esseri umani, si integrerebbero più rapidamente dei dipendenti [Si può discutere su questo - la provenienza dei dati, la fiducia delle aziende sulla affidabilità, le paure di sostituzione, ecc. possono ragionevolmente ritardare il deployment dell'AI; ma, saremmo comunque tutti convinti che sia una scelta migliore e questo non è ancora vero, quindi il punto rimane valido imo]. - Si è verificato un cambiamento dei traguardi: Abbiamo risolto quelli che pensavamo fossero i colli di bottiglia dell'AGI (ad esempio, il ragionamento) eppure non possiamo automatizzare ancora il 95% del lavoro conoscitivo. L'intelligenza è più di quanto ci rendessimo conto e di quanto abbiamo precedentemente definito ed è ok ammetterlo. - Collo di bottiglia dell'apprendimento continuo: L'esplosività futura dell'AI dipende dalla risoluzione dell'apprendimento continuo - agenti distribuiti, che apprendono dall'esperienza, fondendo la conoscenza in una "mente collettiva". Siamo lontani da questo, ma sono ottimista che possiamo arrivarci!