Alibaba hat gerade ihren @Alibaba_Qwen Fahrplan vorgestellt. Die Ambitionen sind überwältigend. Zwei große Wetten: einheitliche multimodale Modelle und extremes Scaling in jeder Dimension. - Kontextlänge: 1M → 100M Tokens - Parameter: Billionen → zehn Billionen Skala - Testzeit-Compute: 64k → 1M Scaling - Daten: 10 Billionen → 100 Billionen Tokens Sie treiben auch die Generierung synthetischer Daten "ohne Skalierungsgrenzen" voran und erweitern die Agentenfähigkeiten in Bezug auf Komplexität, Interaktion und Lernmodi. Das Mantra "Scaling ist alles, was du brauchst" wird zum AI-Evangelium Chinas.