Kami dapat mereproduksi temuan kuat dari makalah HRM tentang ARC-AGI-1. Selanjutnya, kami menjalankan serangkaian eksperimen ablasi untuk mengetahui apa yang ada di baliknya. Temuan utama: 1. Arsitektur model HRM itu sendiri (inti dari kertas) bukanlah faktor penting. 2. Loop penyempurnaan luar (hampir tidak disebutkan dalam makalah) adalah pendorong utama kinerja. 3. Pembelajaran transfer lintas tugas tidak terlalu membantu. Yang penting adalah pelatihan tentang tugas yang akan Anda uji. 4. Anda dapat menggunakan augmentasi data yang jauh lebih sedikit, terutama pada waktu inferensi. Temuan 2 & 3 berarti bahwa pendekatan ini adalah kasus *zero-pretraining test-time training*, mirip dengan makalah "ARC-AGI tanpa pretraining" yang baru-baru ini diterbitkan oleh Liao et al.
241,69K