ARC-AGI-1に関するHRM論文の強力な知見を再現することができました。 さらに、その背後にある原因を突き止めるために、一連のアブレーション実験を実行しました。 主な調査結果: 1. HRMモデルアーキテクチャ自体(論文の中心)は重要な要素ではありません。 2. 外側の改良ループ (論文ではほとんど言及されていません) がパフォーマンスの主な原動力です。 3. クロスタスク転移学習はあまり役に立ちません。重要なのは、テストするタスクに関するトレーニングです。 4. 特に推論時に使用するデータ拡張の数を大幅に減らすことができます。 発見2と3は、このアプローチが、Liaoらが最近発表した論文「ARC-AGI without pretraining」と同様に、*ゼロ事前トレーニングテスト時間トレーニング*のケースであることを意味します。
315.36K