Meta har precis släppt MobileLLM-R1 en modell för kantresonemang med färre än 1 B parametrar 2×–5× prestandaökning jämfört med andra modeller med helt öppen källkod: MobileLLM-R1 uppnår ~5 × högre MATH-noggrannhet jämfört med Olmo-1.24B och ~2× jämfört med SmolLM2-1.7B. Använder bara 1/10 av förträningstokens jämfört med Qwen: matchar eller överträffar Qwen3-noggrannhet på flera resonemangsriktmärken samtidigt som den tränar på endast 4,2T-tokens (bara 11,7 % av Qwen3:s 36T).