Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Akshay 🚀
Zjednodušení LLM, AI Agents, RAG a strojového učení pro vás! • Spoluzakladatel @dailydoseofds_• BITS Pilani • 3 patenty • ex-AI Engineer @ LightningAI
Výzkumníci ML právě vytvořili novou techniku ensemble.
Překonává XGBoost, CatBoost a LightGBM.
Po léta bylo gradient boosting hlavním nástrojem pro tabulární učení. Už ne.
TabM je parametrově efektivní soubor, který vám dává:
- Rychlost MLP
- Přesnost GBDT
Takto to funguje:
V tabulárním strojovém učení jsme vždy museli volit mezi rychlostí a přesností. MLP jsou rychlí, ale podvádějí slabší výkon. Hluboké ansámblu jsou přesné, ale nafouklé. Transformery jsou výkonné, ale pro většinu stolů nepraktické.
TabM to řeší jednoduchým poznatkem:
(viz obrázek níže, když budete číst dál)
Místo trénování 32 samostatných MLP používá jeden sdílený model s lehkým adaptérem. Tato malá úprava vám dává výhody ensemblingu bez nákladů na trénování více sítí.
Výsledky:
Mezi 15+ modely a 46 datovými sadami se TabM umístil v průměru na 1,7 místě – před XGBoost, CatBoost a LightGBM. Složité modely jako FT Transformer a SAINT byly hodnoceny mnohem níže, přestože byly dražší na výcvik.
Výzkumnou práci a benchmarky jsem sdílel v dalším tweetu.
11,99K
Jste na pohovoru na pozici ML inženýra ve Stripe.
Tazatel se ptá:
"Lidé často zpochybňují transakce, které skutečně uzavřeli.
Jak byste vytvořili model, který předpovídá tyto falešné spory bez jakýchkoli označených dat?"
Vy: "Označím karty s vysokou mírou sporů."
Pohovor skončil.
Tady je, co jste přehlédli:
Existuje technika zvaná Active Learning, která umožňuje vytvářet supervidované modely bez označených dat. Je to levnější a rychlejší než ruční anotace.
Myšlenka je jednoduchá: získat lidskou zpětnou vazbu na příklady, kde model nejvíce bojuje.
Takto to funguje:
↳ Začněte malými kroky: Ručně označte 1–2 % svých dat. Postavte svůj první model na tomto malém datovém souboru. Nebude to dobré, ale o to právě jde.
↳ Generujte predikce: Spusť model na neoznačených datech a zachyťte skóre spolehlivosti. Pravděpodobnostní modely zde fungují dobře – podívejte se na rozdíl mezi dvěma nejvýše předpokládanými třídami.
↳ Strategicky označovat: Seřaďte předpovědi podle jistoty. Nechte lidi označovat pouze ty nejspolehlivější příklady. Nemá smysl označovat to, co model už zná.
↳ Opakujte a vylepšujte: Posílejte označená data zpět do modelu. Trénuj znovu. Model je chytřejší v tom, co nezná.
Přestaňte, když výkon splňuje vaše požadavky.
Tip: Používejte vysoce jistotné predikce jako pseudo-štítky vedle svých seed dat. Tomu se říká kooperativní učení a proces se ještě více zrychluje.
Jedna věc, na kterou si dát pozor: Vaše míra důvěry musí být spolehlivá. Pokud to pokazíte, trpí každá tréninková iterace.
Aktivní učení šetří týdny času na označování. Firmy jako Google a Meta ho používají k vytváření modelů na obrovských neoznačených datových sadách.
👉 Předám vám: Použili jste aktivní učení ve výrobě?
V mém dalším tweetu najdete odkaz na můj open-source GitHub repozitář, ai-engineering-hub. Obsahuje 90+ praktických projektů s kódem.
Všechno je 100% open-source (21 tisíc+ hvězdiček 🌟)

16,07K
Top
Hodnocení
Oblíbené

