Meta acaba de lançar o MobileLLM-R1 um modelo de raciocínio de borda com menos de 1B parâmetros 2×–5× Aumento de desempenho em relação a outros modelos totalmente de código aberto: o MobileLLM-R1 atinge ~5× maior precisão matemática em relação ao Olmo-1.24B e ~2× em relação ao SmolLM2-1.7B. Usa apenas 1/10 dos tokens pré-treinamento em comparação com o Qwen: iguala ou supera a precisão do Qwen3 em vários benchmarks de raciocínio enquanto treina em apenas 4,2T tokens (apenas 11,7% dos 36T do Qwen3).