Alibaba heeft zojuist hun @Alibaba_Qwen roadmap onthuld. De ambitie is verbluffend. Twee grote inzetten: uniforme multi-modale modellen en extreme opschaling op elk vlak. - Contextlengte: 1M → 100M tokens - Parameters: triljoen → tien triljoen schaal - Testtijdberekeningen: 64k → 1M opschaling - Gegevens: 10 triljoen → 100 triljoen tokens Ze zetten ook in op synthetische gegevensgeneratie "zonder schaalbeperkingen" en breiden de mogelijkheden van agenten uit op het gebied van complexiteit, interactie en leermodi. De mantra "opschaling is alles wat je nodig hebt" wordt de AI-evangelie van China.