Meta が MobileLLM-R1 をリリースしたばかり パラメータが 1B 未満のエッジ推論モデル 他の完全オープンソースモデルよりも2×–5×パフォーマンスの向上:MobileLLM-R1は、Olmo-1.24Bと比較して~5×高いMATH精度、SmolLM2-1.7Bと比較して~2×高いMATH精度を達成します。 Qwenと比較して、事前トレーニングトークンのわずか1/10しか使用せず、複数の推論ベンチマークでQwen3の精度に匹敵するか、それを上回っていますが、トレーニングはわずか4.2T(Qwen3の36Tのわずか11.7%)です。