Apakah manusia belajar seperti transformator? Ini adalah pertanyaan yang terdengar hampir filosofis, tetapi Pesnot Lerousseau dan Summerfield mengubahnya menjadi eksperimen yang ketat. Mereka melatih manusia (n = 530) dan jaringan transformator kecil pada tugas pembelajaran aturan yang sama, kemudian memanipulasi satu variabel: distribusi statistik contoh pelatihan—dari yang sepenuhnya beragam (setiap contoh unik) hingga sangat berlebihan (item yang sama diulang berulang kali). Hasilnya mencolok. Baik manusia maupun transformator menunjukkan sensitivitas yang hampir identik terhadap manipulasi ini. Berlatih pada beragam data, dan peserta didik menggeneralisasi aturan ke situasi baru ("pembelajaran dalam konteks"). Berlatih pada data yang berlebihan, dan mereka menghafal contoh spesifik ("pembelajaran dalam bobot"). Transisi antar strategi terjadi pada titik kritis yang sama (eksponen Zipf α ≈ 1) dalam sistem biologis dan buatan. Tidak ada yang dapat dengan mudah melakukan keduanya—sampai Anda memberi mereka distribusi komposit yang memadukan keragaman dan redundansi, di mana manusia dan transformator menjadi "pembelajar ganda." Tapi di sinilah mereka berbeda: manusia mendapat manfaat dari kurikulum. Sajikan beragam contoh lebih awal, dan orang menemukan aturan yang dapat digeneralisasi tanpa kehilangan kemampuan untuk menghafal nanti. Transformer, sebaliknya, menderita gangguan bencana—apa pun yang mereka pelajari kedua menimpa apa yang lebih dulu. Implikasinya untuk AI dan pendidikan: struktur data pelatihan sama pentingnya dengan kontennya. Dan sementara transformator mungkin mencocokkan pembelajaran manusia dengan cara yang mengejutkan, mereka masih kekurangan fleksibilitas yang memungkinkan kita mendapatkan manfaat dari kurikulum yang dirancang dengan baik. Kertas: