Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
ML-forskare har precis byggt en ny ensembleteknik.
Den presterar bättre än XGBoost, CatBoost och LightGBM.
I flera år har gradient boosting varit det självklara valet för tabellinlärning. Inte längre.
TabM är en parametereffektiv ensemble som ger dig:
- Hastigheten hos en MLP
- GBDT:s noggrannhet
Så här fungerar det:
I tabellär ML har vi alltid varit tvungna att välja mellan snabbhet och noggrannhet. MLP:er är snabba men presterar sämre. Djupa ensembler är korrekta men uppblåsta. Transformatorer är kraftfulla men opraktiska för de flesta bord.
TabM löser detta med en enkel insikt:
(se bilden nedan när du läser vidare)
Istället för att träna 32 separata MLP:er använder den en gemensam modell med en lättviktig adapter. Denna lilla justering ger dig fördelarna med att bygga utan kostnaden för att träna flera nätverk.
Resultaten:
Jämfört med 15+ modeller och 46 dataset rankades TabM i genomsnitt 1,7 – före XGBoost, CatBoost och LightGBM. Komplexa modeller som FT Transformer och SAINT rankades mycket lägre trots att de var dyrare att träna.
Jag har delat forskningsartikeln och riktmärken i nästa tweet.
Forskningsrapport →

33,78K
Topp
Rankning
Favoriter

