Meta heeft zojuist MobileLLM-R1 uitgebracht een edge reasoning model met minder dan 1B parameters 2×–5× prestatieverbetering ten opzichte van andere volledig open-source modellen: MobileLLM-R1 behaalt ~5× hogere MATH-nauwkeurigheid in vergelijking met Olmo-1.24B, en ~2× in vergelijking met SmolLM2-1.7B. Gebruikt slechts 1/10 van de pre-training tokens vergeleken met Qwen: evenaart of overtreft de nauwkeurigheid van Qwen3 op meerdere reasoning benchmarks terwijl het slechts traint op 4.2T tokens (slechts 11.7% van Qwen3’s 36T).