Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Pesquisadores de ML acabaram de criar uma nova técnica de conjunto.
Ele supera XGBoost, CatBoost e LightGBM.
Por anos, o gradient boosting tem sido a escolha principal para aprendizado tabular. Não mais.
TabM é um conjunto eficiente em termos de parâmetros que oferece a você:
- A velocidade de uma MLP
- A precisão do GBDT
Veja como funciona:
No ML tabular, sempre tivemos que escolher entre velocidade e precisão. MLPs são rápidos, mas têm desempenho abaixo do esperado. Conjuntos profundos são precisos, mas volumosos. Transformers são potentes, mas pouco práticos para a maioria das mesas.
O TabM resolve isso com uma visão simples:
(consulte a imagem abaixo enquanto lê)
Em vez de treinar 32 MLPs separados, ele usa um modelo compartilhado com um adaptador leve. Esse pequeno ajuste oferece os benefícios de montar sem o custo de treinar múltiplas redes.
Os resultados:
Contra 15+ modelos e 46 conjuntos de dados, o TabM ficou em média 1,7 — à frente de XGBoost, CatBoost e LightGBM. Modelos complexos como FT Transformer e SAINT tiveram classificação muito inferior, apesar de serem mais caros de treinar.
Compartilhei o artigo de pesquisa e os marcos no próximo tweet.
Trabalho de pesquisa →

13,6K
Melhores
Classificação
Favoritos

