Tyst funktionsinlärning i transformers Det här är en av de mest fascinerande artiklar jag har läst den här veckan. Låt mig förklara: Den hävdar att förlustkurvor kan vilseleda om vad en modell lär sig. Standardmetoden för att övervaka träning av neurala nätverk bygger på förlust som det primära framstegsmåttet. Om förlusten är oförändrad händer ingenting. Om förlusten minskar sker lärande. Men detta antagande stämmer vid algoritmiska uppgifter. Denna nya forskning tränade Transformers i tio grundläggande algoritmiska uppgifter och upptäckte "tysta egenskaper": interna representationer som utvecklas medan förlusten verkar stå stilla. De upptäcker att modeller lär sig mellanliggande beräkningssteg långt innan dessa steg förbättrar utdatans prestanda. Bära bitar dessutom, kömedlemskap i BFS, partiella produkter i multiplikation. Dessa egenskaper uppstår under långa platåer och kombineras plötsligt för att lösa uppgiften. Forskarna undersökte interna representationer över binär aritmetik (addition, multiplikation), grafalgoritmer (BFS, kortaste väg, topologisk sortering, MST) och sekvensoptimering (maximal subarray, aktivitetsval). Sex uppgifter visade tydliga tvåfasövergångar: långvarig stagnation följt av plötsliga prestationsförbättringar. Ablationsexperiment bekräftade kausalitet. Borttagande av carry-funktioner från en 64-bitars additionsmodell orsakade en minskning av noggrannheten med 75,1 %. Att abbera kömedlemskap i BFS minskade noggrannheten med 43,6 %. Algoritmiska uppgifter kräver flera delrutiner som fungerar tillsammans. Individuella korrekta komponenter minskar inte förlusten förrän alla delar är i linje. Modeller ackumulerar latenta funktioner under platta förlustkurvor. Det verkar som att korsentropiförlust är en ofullständig diagnostisk diagnos. Betydande intern inlärning kan ske medan mätvärden verkar stagnera. Detta motiverar rikare övervakningsverktyg utöver förlustkurvor. 🔖 (bokmärk den) Papper: