Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Lærer mennesker som transformers?
Det er et spørsmål som høres nesten filosofisk ut, men Pesnot Lerousseau og Summerfield gjorde det til et grundig eksperiment. De trente både mennesker (n = 530) og små transformatornettverk på samme regellæringsoppgave, og manipulerte deretter én variabel: den statistiske fordelingen av treningseksempler—fra fullstendig mangfoldig (hvert eksempel unikt) til svært redundant (de samme elementene gjentatte ganger om og om igjen).
Resultatet er slående. Både mennesker og transformers viser nesten identisk følsomhet for denne manipulasjonen. Tren på varierte data, og lærende generaliserer reglene til nye situasjoner ("in-context learning"). Tren på redundante data, og de memorerer spesifikke eksempler ("in-weights learning"). Overgangen mellom strategier skjer på samme kritiske punkt (Zipf-eksponent α ≈ 1) i både biologiske og kunstige systemer. Ingen av dem kan lett gjøre begge deler—inntil du gir dem en sammensatt fordeling som blander mangfold og redundans, da blir både mennesker og transformers «dobbeltlærere».
Men her skiller de lag: mennesker drar nytte av læreplaner. Presenterer man ulike eksempler tidlig, oppdager folk den generaliserbare regelen uten å miste evnen til å memorere senere. Transformers, derimot, lider av katastrofal interferens – det de lærer etterpå, overstyrer det som kom først.
Implikasjonen for både KI og utdanning: strukturen til treningsdata er like viktig som innholdet. Og selv om transformatorer kan matche menneskelig læring på overraskende måter, mangler de fortsatt fleksibiliteten som lar oss dra nytte av godt utformede læreplaner.
Artikkel:

Topp
Rangering
Favoritter
