ML-forskare har precis byggt en ny ensembleteknik. Den presterar bättre än XGBoost, CatBoost och LightGBM. I flera år har gradient boosting varit det självklara valet för tabellinlärning. Inte längre. TabM är en parametereffektiv ensemble som ger dig: - Hastigheten hos en MLP - GBDT:s noggrannhet Så här fungerar det: I tabellär ML har vi alltid varit tvungna att välja mellan snabbhet och noggrannhet. MLP:er är snabba men presterar sämre. Djupa ensembler är korrekta men uppblåsta. Transformatorer är kraftfulla men opraktiska för de flesta bord. TabM löser detta med en enkel insikt: (se bilden nedan när du läser vidare) Istället för att träna 32 separata MLP:er använder den en gemensam modell med en lättviktig adapter. Denna lilla justering ger dig fördelarna med att bygga utan kostnaden för att träna flera nätverk. Resultaten: Jämfört med 15+ modeller och 46 dataset rankades TabM i genomsnitt 1,7 – före XGBoost, CatBoost och LightGBM. Komplexa modeller som FT Transformer och SAINT rankades mycket lägre trots att de var dyrare att träna. Jag har delat forskningsartikeln och riktmärken i nästa tweet.
Forskningsrapport →
33,78K