Cercetătorii în ML tocmai au construit o nouă tehnică de ansamblu. Depășește XGBoost, CatBoost și LightGBM. De ani de zile, creșterea gradientului a fost alegerea principală pentru învățarea tabelului. Nu mai e așa. TabM este un ansamblu eficient din punct de vedere al parametrilor care îți oferă: - Viteza unui MLP - Acuratețea GBDT Iată cum funcționează: În ML tabelar, a trebuit mereu să alegem între viteză și acuratețe. MLP-urile sunt rapide, dar subperformante. Ansamblurile adânci sunt exacte, dar umflate. Transformatoarele sunt puternice, dar nepractice pentru majoritatea meselor. TabM rezolvă acest lucru cu o perspectivă simplă: (vezi imaginea de mai jos pe măsură ce citești) În loc să antreneze 32 de MLP-uri separate, folosește un singur model comun cu un adaptor ușor. Această mică ajustare îți oferă beneficiile de a construi fără costul antrenării mai multor rețele. Rezultatele: Comparativ cu 15+ modele și 46 de seturi de date, TabM s-a clasat în medie pe locul 1,7 — înaintea XGBoost, CatBoost și LightGBM. Modelele complexe precum FT Transformer și SAINT au fost mult mai jos, deși erau mai scumpe de antrenat. Am împărtășit lucrarea de cercetare și reperele în următorul tweet.
Lucrare de cercetare →
13,61K