Los investigadores de ML acaban de crear una nueva técnica de conjunto. Supera a XGBoost, CatBoost y LightGBM. Durante años, el aumento de gradiente ha sido la opción habitual para el aprendizaje tabular. Ya no. TabM es un conjunto eficiente en parámetros que te ofrece: - La velocidad de una MLP - La precisión de GBDT Así es como funciona: En ML tabular, siempre hemos tenido que elegir entre velocidad y precisión. Los MLP son rápidos pero tienen un rendimiento inferior. Los conjuntos profundos son precisos pero inflados. Los transformadores son potentes pero poco prácticos para la mayoría de las mesas. TabM resuelve esto con una idea sencilla: (consulta la imagen de abajo mientras lees) En lugar de entrenar 32 MLP separados, utiliza un modelo compartido con un adaptador ligero. Este pequeño ajuste te da los beneficios de montar sin el coste de entrenar múltiples redes. Los resultados: Frente a 15+ modelos y 46 conjuntos de datos, TabM ocupó el puesto 1,7 de media, por delante de XGBoost, CatBoost y LightGBM. Modelos complejos como FT Transformer y SAINT tenían una posición mucho más baja a pesar de ser más caros de entrenar. He compartido el artículo de investigación y los puntos de referencia en el próximo tuit.
Trabajo de investigación →
12K