Meta baru saja merilis MobileLLM-R1 model penalaran tepi dengan parameter kurang dari 1B Peningkatan Performa 2×–5× dibandingkan model sumber terbuka lainnya yang sepenuhnya: MobileLLM-R1 mencapai akurasi MATEMATIKA ~5× lebih tinggi vs. Olmo-1.24B, dan ~2× vs. SmolLM2-1.7B. Hanya menggunakan 1/10 token pra-pelatihan dibandingkan dengan Qwen: mencocokkan atau melampaui akurasi Qwen3 pada beberapa tolok ukur penalaran saat berlatih hanya pada 4,2T token (hanya 11,7% dari 36T Qwen3).