Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Meta heeft zojuist MobileLLM-R1 uitgebracht
een edge reasoning model met minder dan 1B parameters
2×–5× prestatieverbetering ten opzichte van andere volledig open-source modellen: MobileLLM-R1 behaalt ~5× hogere MATH-nauwkeurigheid in vergelijking met Olmo-1.24B, en ~2× in vergelijking met SmolLM2-1.7B.
Gebruikt slechts 1/10 van de pre-training tokens vergeleken met Qwen: evenaart of overtreft de nauwkeurigheid van Qwen3 op meerdere reasoning benchmarks terwijl het slechts traint op 4.2T tokens (slechts 11.7% van Qwen3’s 36T).

Boven
Positie
Favorieten