Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Akshay 🚀
Спрощення LLM, AI агентів, RAG та машинного навчання для вас! • Співзасновник @dailydoseofds_• BITS Pilani • 3 патенти • колишній інженер штучного інтелекту @ LightningAI
Дослідники машинного навчання щойно створили нову ансамблеву техніку.
Він перевершує XGBoost, CatBoost і LightGBM.
Протягом багатьох років підвищення градієнтів було основним засобом для табличного навчання. Вже ні.
TabM — це параметро-ефективний ансамбль, який дає вам:
- Швидкість MLP
- Точність GBDT
Ось як це працює:
У табличному машинному навчання нам завжди доводилося обирати між швидкістю та точністю. MLP швидкі, але відстають від результатів. Глибокі образи точні, але перебільшені. Трансформери потужні, але непрактичні для більшості столів.
TabM вирішує це простим розумінням:
(див. зображення нижче, поки читаєте далі)
Замість навчання 32 окремих MLP використовується одна спільна модель із легким адаптером. Це невелике коригування дає переваги енсемблінгу без витрат на навчання кількох мереж.
Результати:
Порівняно з 15+ моделями та 46 наборами даних TabM посіла в середньому 1,7 місце — випереджаючи XGBoost, CatBoost і LightGBM. Складні моделі, такі як FT Transformer і SAINT, займали значно нижчі позиції, хоча їх навчання було дорожче.
Я поділився науковою статтею та бенчмарками у наступному твіті.
7,88K
Ви проходите співбесіду на інженера машинного навчання в Stripe.
Інтерв'юер запитує:
"Люди часто оскаржують транзакції, які вони дійсно здійснили.
Як би ви побудували модель, яка передбачає ці фальшиві суперечки без жодних позначених даних?»
Ти: «Я буду позначаєти картки з високим рівнем суперечок.»
Інтерв'ю закінчено.
Ось що ви пропустили:
Існує техніка під назвою Active learning, яка дозволяє створювати контрольовані моделі без позначених даних. Це дешевше і швидше за ручне анотування.
Ідея проста: отримати людський зворотний зв'язок щодо прикладів, де модель має найбільші труднощі.
Ось як це працює:
↳ Починайте з малого: вручну позначайте 1-2% ваших даних. Створіть свою першу модель на цьому крихітному наборі даних. Це не буде добре, але в цьому й суть.
↳ Генерувати прогнози: Запускати модель на немаркованих даних і фіксувати оцінки довіри. Ймовірнісні моделі добре працюють тут — подивіться на розрив між двома верхніми прогнозованими класами.
↳ Позначте стратегічно: Ранжуйте прогнози за довірою. Нехай люди маркують лише приклади з найнижчою впевненістю. Немає сенсу маркувати те, що модель вже знає.
↳ Повторити і покращити: Подати позначені дані назад у модель. Тренуйся знову. Модель стає розумнішою щодо того, чого не знає.
Зупиніться, коли продуктивність відповідає вашим вимогам.
Порада: використовуйте прогнози з високою впевненістю як псевдо-мітки разом із вашими даними про насіння. Це називається кооперативним навчанням, і воно ще більше прискорює процес.
Одне, на що слід звернути увагу: ваш показник впевненості має бути надійним. Якщо ви все зіпсувате, кожна ітерація тренувань страждає.
Активне навчання економить тижні часу на маркування. Компанії, такі як Google і Meta, використовують його для створення моделей на основі величезних немаркованих наборів даних.
👉 Слово вам: чи використовували ви активне навчання у виробництві?
У моєму наступному твіті ви знайдете посилання на мій відкритий репозиторій GitHub, ai-engineering-hub. Він містить 90+ практичних проєктів із кодом.
Все на 100% відкрите (21k+ зірок 🌟)

16,07K
Найкращі
Рейтинг
Вибране

