Leren mensen zoals transformers? Het is een vraag die bijna filosofisch klinkt, maar Pesnot Lerousseau en Summerfield hebben het omgevormd tot een rigoureus experiment. Ze trainden zowel mensen (n = 530) als kleine transformer-netwerken op dezelfde taak voor het leren van regels, en manipuleerden vervolgens een enkele variabele: de statistische verdeling van trainingsvoorbeelden - van volledig divers (elke voorbeeld uniek) tot zeer redundant (dezelfde items keer op keer herhaald). Het resultaat is opvallend. Zowel mensen als transformers tonen een bijna identieke gevoeligheid voor deze manipulatie. Trainen op diverse gegevens, en leerlingen generaliseren regels naar nieuwe situaties ("in-context leren"). Trainen op redundante gegevens, en ze memoriseren specifieke voorbeelden ("in-gewichten leren"). De overgang tussen strategieën vindt plaats op hetzelfde kritieke punt (Zipf-exponent α ≈ 1) in zowel biologische als kunstmatige systemen. Geen van beiden kan gemakkelijk beide doen - totdat je ze een samengestelde verdeling geeft die diversiteit en redundantie mengt, op welk punt zowel mensen als transformers "dubbele leerlingen" worden. Maar hier divergeren ze: mensen profiteren van curricula. Presenteer diverse voorbeelden vroeg, en mensen ontdekken de generaliseerbare regel zonder het vermogen om later te memoriseren te verliezen. Transformers daarentegen lijden aan catastrofale interferentie - wat ze als tweede leren, overschrijft wat eerst kwam. De implicatie voor zowel AI als onderwijs: de structuur van trainingsgegevens is net zo belangrijk als de inhoud ervan. En hoewel transformers op verrassende manieren kunnen concurreren met het leren van mensen, missen ze nog steeds de flexibiliteit die ons in staat stelt te profiteren van goed ontworpen curricula. Paper: