Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Cercetătorii în ML tocmai au construit o nouă tehnică de ansamblu.
Depășește XGBoost, CatBoost și LightGBM.
De ani de zile, creșterea gradientului a fost alegerea principală pentru învățarea tabelului. Nu mai e așa.
TabM este un ansamblu eficient din punct de vedere al parametrilor care îți oferă:
- Viteza unui MLP
- Acuratețea GBDT
Iată cum funcționează:
În ML tabelar, a trebuit mereu să alegem între viteză și acuratețe. MLP-urile sunt rapide, dar subperformante. Ansamblurile adânci sunt exacte, dar umflate. Transformatoarele sunt puternice, dar nepractice pentru majoritatea meselor.
TabM rezolvă acest lucru cu o perspectivă simplă:
(vezi imaginea de mai jos pe măsură ce citești)
În loc să antreneze 32 de MLP-uri separate, folosește un singur model comun cu un adaptor ușor. Această mică ajustare îți oferă beneficiile de a construi fără costul antrenării mai multor rețele.
Rezultatele:
Comparativ cu 15+ modele și 46 de seturi de date, TabM s-a clasat în medie pe locul 1,7 — înaintea XGBoost, CatBoost și LightGBM. Modelele complexe precum FT Transformer și SAINT au fost mult mai jos, deși erau mai scumpe de antrenat.
Am împărtășit lucrarea de cercetare și reperele în următorul tweet.
Lucrare de cercetare →

13,61K
Limită superioară
Clasament
Favorite

