Společnost Meta právě vydala MobileLLM-R1 model uvažování o hraně s méně než 1B parametry 2×–5× Zvýšení výkonu oproti jiným plně open-source modelům: MobileLLM-R1 dosahuje ~5× vyšší přesnosti MATH oproti Olmo-1.24B a ~2× oproti SmolLM2-1.7B. Ve srovnání s Qwen používá pouze 1/10 předtrénovacích tokenů: odpovídá nebo překračuje přesnost Qwen3 v několika srovnávacích testech uvažování, zatímco trénuje pouze na 4,2T tokenech (pouze 11,7 % z Qwen3 36T).