A Meta acaba de lançar o MobileLLM-R1 um modelo de raciocínio de borda com menos de 1B de parâmetros Aumento de desempenho de 2× a 5× em relação a outros modelos totalmente de código aberto: o MobileLLM-R1 alcança uma precisão em MATH ~5× superior em comparação com o Olmo-1.24B, e ~2× em relação ao SmolLM2-1.7B. Usa apenas 1/10 dos tokens de pré-treinamento em comparação com o Qwen: iguala ou supera a precisão do Qwen3 em múltiplos benchmarks de raciocínio enquanto treina com apenas 4.2T de tokens (apenas 11.7% dos 36T do Qwen3).