Lär sig människor som transformers? Det är en fråga som låter nästan filosofisk, men Pesnot Lerousseau och Summerfield gjorde det till ett rigoröst experiment. De tränade både människor (n = 530) och små transformatornätverk på samma regelinlärningsuppgift, och manipulerade sedan en enda variabel: den statistiska fördelningen av träningsexempel – från fullt varierande (varje exempel unikt) till mycket redundanta (samma objekt upprepade om och om igen). Resultatet är slående. Både människor och transformers visar nästan identisk känslighet för denna manipulation. Träna på olika data, och lärande generaliserar regler till nya situationer ("in-context learning"). Träna på redundant data, och de memorerar specifika exempel ("in-weights learning"). Övergången mellan strategier sker vid samma kritiska punkt (Zipf-exponent α ≈ 1) i både biologiska och artificiella system. Ingen av dem kan enkelt göra båda – tills man ger dem en sammansatt fördelning som blandar mångfald och redundans, då blir både människor och transformers "dubbellärare." Men här skiljer de sig åt: människor gynnas av läroplaner. Presenterar man olika exempel tidigt, upptäcker man den generaliserbara regeln utan att senare förlora förmågan att memorera. Transformers, däremot, drabbas av katastrofal störning – vad de än lär sig sedan skriver över det som kom först. Konsekvenserna för både AI och utbildning: strukturen för träningsdata är lika viktig som dess innehåll. Och även om transformers kan matcha mänskligt lärande på överraskande sätt, saknar de fortfarande den flexibilitet som gör att vi kan dra nytta av välutformade läroplaner. Papper: