Meta vient de lancer MobileLLM-R1 un modèle de raisonnement en edge avec moins de 1 milliard de paramètres Amélioration de performance de 2× à 5× par rapport à d'autres modèles entièrement open-source : MobileLLM-R1 atteint une précision MATH ~5× supérieure à celle d'Olmo-1.24B, et ~2× par rapport à SmolLM2-1.7B. Utilise seulement 1/10 des tokens de pré-entraînement par rapport à Qwen : égalise ou dépasse la précision de Qwen3 sur plusieurs benchmarks de raisonnement tout en s'entraînant sur seulement 4,2T de tokens (seulement 11,7 % des 36T de Qwen3).