Meta a lancé MobileLLM-Pro, un modèle de langage compact de 1 milliard de paramètres qui surpasse significativement Gemma 3-1B et Llama 3-1B dans les benchmarks de pré-entraînement. Malgré sa petite taille, il montre de bons résultats dans les appels API, la réécriture, le codage et la synthèse, et peut déjà être testé directement dans le navigateur via Gradio.