Oamenii învață ca transformerele? Este o întrebare care sună aproape filosofic, dar Pesnot Lerousseau și Summerfield au transformat-o într-un experiment riguros. Au antrenat atât oameni (n = 530), cât și rețele mici de transformatoare pe aceeași sarcină de învățare a regulilor, apoi au manipulat o singură variabilă: distribuția statistică a exemplelor de antrenament—de la complet diverse (fiecare exemplu unic) la foarte redundante (aceleași elemente repetate la nesfârșit). Rezultatul este izbitor. Atât oamenii, cât și transformerii manifestă o sensibilitate aproape identică la această manipulare. Se antrenează pe date diverse, iar cursanții generalizează regulile la situații noi ("învățare în context"). Se antrenează pe date redundante, iar ei memorează exemple specifice ("învățare în ponderi"). Tranziția între strategii are loc în același punct critic (exponentul Zipf α ≈ 1) atât în sistemele biologice, cât și în cele artificiale. Niciunul nu poate face ambele cu ușurință — până când le oferi o distribuție compozită care combină diversitate și redundanță, moment în care atât oamenii, cât și transformerii devin "dubli învățăcei". Dar aici diferențează: oamenii beneficiază de curricula. Prezintă exemple diverse de la început și oamenii descoperă regula generalizabilă fără să-și piardă capacitatea de a memora mai târziu. Transformerele, în schimb, suferă interferențe catastrofale — orice află a doua a doua suprascrie ce a venit mai întâi. Implicația pentru AI și educație deopotrivă: structura datelor de antrenament contează la fel de mult ca și conținutul lor. Și, deși transformerii pot egala învățarea umană în moduri surprinzătoare, încă le lipsește flexibilitatea care ne permite să beneficiem de curricula bine concepută. Hârtie: