Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Meta właśnie wydało MobileLLM-R1
model rozumowania na krawędzi z mniej niż 1 miliardem parametrów
2×–5× wzrost wydajności w porównaniu do innych w pełni otwartych modeli: MobileLLM-R1 osiąga ~5× wyższą dokładność MATH w porównaniu do Olmo-1.24B i ~2× w porównaniu do SmolLM2-1.7B.
Używa tylko 1/10 tokenów wstępnego treningu w porównaniu do Qwen: osiąga lub przewyższa dokładność Qwen3 w wielu benchmarkach rozumowania, trenując na zaledwie 4.2T tokenów (tylko 11.7% z 36T Qwen3).

Najlepsze
Ranking
Ulubione