熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁
ML 研究人員剛剛建立了一種新的集成技術。
它的表現超越了 XGBoost、CatBoost 和 LightGBM。
多年來,梯度提升一直是表格學習的首選。但現在不再是了。
TabM 是一種參數高效的集成方法,為您提供:
- MLP 的速度
- GBDT 的準確性
它的工作原理如下:
在表格機器學習中,我們一直必須在速度和準確性之間做出選擇。MLP 速度快但表現不佳。深度集成準確但臃腫。變壓器強大但對大多數表格來說不切實際。
TabM 通過一個簡單的見解解決了這個問題:
(請參考下面的圖片,隨著閱讀繼續)
它不是訓練 32 個獨立的 MLP,而是使用一個共享模型和一個輕量級的適配器。這個小調整讓您在不需要訓練多個網絡的情況下,享受到集成的好處。
結果:
在 15 多個模型和 46 個數據集上,TabM 平均排名 1.7,超越了 XGBoost、CatBoost 和 LightGBM。像 FT Transformer 和 SAINT 這樣的複雜模型儘管訓練成本更高,但排名卻低得多。
我在下一條推文中分享了研究論文和基準。
研究論文 →

13.59K
熱門
排行
收藏

