Alibaba avduket nettopp sitt @Alibaba_Qwen veikart. Ambisjonen er svimlende. To store innsatser: enhetlige multimodale modeller og ekstrem skalering på tvers av alle dimensjoner. - Kontekstlengde: 1M → 100M tokens - Parametere: billioner → ti billioner skala - Testtidsberegning: 64k → 1M skalering - Data: 10 billioner → 100 billioner tokens De presser også på for generering av syntetiske data «uten skaleringsgrenser» og utvider agentfunksjoner på tvers av kompleksitets-, interaksjons- og læringsmoduser. Mantraet «skalering er alt du trenger» er i ferd med å bli Kinas AI-evangelium.