Meta hat MobileLLM-Pro veröffentlicht, ein kompaktes Sprachmodell mit 1B Parametern, das Gemma 3-1B und Llama 3-1B in den Pre-Training-Benchmarks erheblich übertrifft. Trotz seiner geringen Größe zeigt es starke Ergebnisse beim API-Calling, Umschreiben, Programmieren und Zusammenfassen und kann bereits direkt im Browser über Gradio getestet werden.