Meta acaba de lanzar MobileLLM-R1 a un modelo de razonamiento en el borde con menos de 1B de parámetros Aumento de rendimiento de 2×–5× en comparación con otros modelos completamente de código abierto: MobileLLM-R1 logra ~5× más precisión en MATH en comparación con Olmo-1.24B, y ~2× en comparación con SmolLM2-1.7B. Utiliza solo 1/10 de los tokens de pre-entrenamiento en comparación con Qwen: iguala o supera la precisión de Qwen3 en múltiples benchmarks de razonamiento mientras entrena con solo 4.2T de tokens (solo el 11.7% de los 36T de Qwen3).