トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
ARC-AGI-1に関するHRM論文の強力な知見を再現することができました。
さらに、その背後にある原因を突き止めるために、一連のアブレーション実験を実行しました。
主な調査結果:
1. HRMモデルアーキテクチャ自体(論文の中心)は重要な要素ではありません。
2. 外側の改良ループ (論文ではほとんど言及されていません) がパフォーマンスの主な原動力です。
3. クロスタスク転移学習はあまり役に立ちません。重要なのは、テストするタスクに関するトレーニングです。
4. 特に推論時に使用するデータ拡張の数を大幅に減らすことができます。
発見2と3は、このアプローチが、Liaoらが最近発表した論文「ARC-AGI without pretraining」と同様に、*ゼロ事前トレーニングテスト時間トレーニング*のケースであることを意味します。
315.36K
トップ
ランキング
お気に入り