Meta właśnie wydało MobileLLM-R1 model rozumowania na krawędzi z mniej niż 1 miliardem parametrów 2×–5× wzrost wydajności w porównaniu do innych w pełni otwartych modeli: MobileLLM-R1 osiąga ~5× wyższą dokładność MATH w porównaniu do Olmo-1.24B i ~2× w porównaniu do SmolLM2-1.7B. Używa tylko 1/10 tokenów wstępnego treningu w porównaniu do Qwen: osiąga lub przewyższa dokładność Qwen3 w wielu benchmarkach rozumowania, trenując na zaledwie 4.2T tokenów (tylko 11.7% z 36T Qwen3).