Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Dwarkesh kokte med dette, etter min mening:
-RLVR-paradokset: Labs bruker milliarder på forhåndsbaking av spesifikke ferdigheter, noe som skaper en grunnleggende spenning: hvis vi er nær menneskelignende elever, blir all denne fortreningen meningsløs siden de ville lært på jobben.
-Menneskelig arbeidskrafts reelle verdi: Vi trenger ikke skreddersydde treningspipelines for hver mikrooppgave; nåværende AI gjør det.
-Diffusjonsforsinkelse = takling: Hvis modellene var menneskelig ekvivalente, ville de integreres raskere enn ansatte [Kan diskutere dette – dataopprinnelse, forretningstilliten til pålitelighet, frykt for utskifting osv. kan rimeligvis bremse AI-utrulling; men vi ville fortsatt alle vært overbevist om at det er et bedre alternativ, og det stemmer ikke ennå, så poenget står etter min mening].
-Målendring har skjedd: Vi løste det vi trodde var AGI-flaskehalser (f.eks. resonnement), men klarer ennå ikke å automatisere 95 % av kunnskapsarbeidet. Intelligens er mer enn vi innså og tidligere har definert, og det er greit å innrømme.
-Kontinuerlig læringsflaskehals: Fremtidig AI-eksplosivitet avhenger av å løse kontinuerlig læring – agenter utplassert, læring av erfaring, og å slå sammen kunnskap tilbake til et «kollektivt sinn». Langt unna dette, men optimistisk at vi kan komme dit!
Topp
Rangering
Favoritter

