Meta щойно випустила MobileLLM-R1 модель міркування краю з параметрами менше 1B 2×–5× Підвищення продуктивності порівняно з іншими моделями з повністю відкритим вихідним кодом: MobileLLM-R1 досягає ~5× вищої точності математики порівняно з Olmo-1.24B і ~2× порівняно зі SmolLM2-1.7B. Використовує лише 1/10 токенів перед тренуванням порівняно з Qwen: відповідає або перевершує точність Qwen3 за кількома тестами міркувань, тоді як тренування лише на 4,2T токенах (лише 11,7% від 36T Qwen3).