Meta heeft MobileLLM-Pro uitgebracht, een compact taalmodel met 1B parameters dat aanzienlijk beter presteert dan Gemma 3-1B en Llama 3-1B in pre-trainingsbenchmarks. Ondanks zijn kleine formaat toont het sterke resultaten in API-aanroepen, herschrijven, coderen en samenvatten, en kan het al direct in de browser worden getest via Gradio.