Lernen Menschen wie Transformer? Es ist eine Frage, die fast philosophisch klingt, aber Pesnot Lerousseau und Summerfield haben sie in ein rigoroses Experiment verwandelt. Sie trainierten sowohl Menschen (n = 530) als auch kleine Transformer-Netzwerke mit derselben Regel-Lernaufgabe und manipulierten dann eine einzige Variable: die statistische Verteilung der Trainingsbeispiele – von vollständig vielfältig (jedes Beispiel einzigartig) bis hoch redundant (die gleichen Elemente immer wieder wiederholt). Das Ergebnis ist auffällig. Sowohl Menschen als auch Transformer zeigen eine nahezu identische Sensitivität gegenüber dieser Manipulation. Trainiert man mit vielfältigen Daten, verallgemeinern die Lernenden Regeln auf neuartige Situationen ("In-Context-Learning"). Trainiert man mit redundanten Daten, memorieren sie spezifische Beispiele ("In-Weights-Learning"). Der Übergang zwischen den Strategien erfolgt an demselben kritischen Punkt (Zipf-Exponent α ≈ 1) sowohl in biologischen als auch in künstlichen Systemen. Keines kann beide Strategien leicht anwenden – bis man ihnen eine zusammengesetzte Verteilung gibt, die Vielfalt und Redundanz mischt, an welchem Punkt sowohl Menschen als auch Transformer "doppelte Lernende" werden. Aber hier divergieren sie: Menschen profitieren von Lehrplänen. Wenn man vielfältige Beispiele früh präsentiert, entdecken die Menschen die verallgemeinerbare Regel, ohne die Fähigkeit zu verlieren, später zu memorieren. Transformer hingegen leiden unter katastrophaler Interferenz – was auch immer sie als zweites lernen, überschreibt das, was zuerst kam. Die Implikation für KI und Bildung gleichermaßen: Die Struktur der Trainingsdaten ist ebenso wichtig wie deren Inhalt. Und während Transformer in überraschenden Weisen mit dem menschlichen Lernen übereinstimmen mögen, fehlt ihnen immer noch die Flexibilität, die es uns ermöglicht, von gut gestalteten Lehrplänen zu profitieren. Papier: