Xiaomi heeft zojuist de MiMo-V2-Flash gelanceerd, een 309B open gewichten redeneermodel dat 66 scoort op de Artificial Analysis Intelligence Index. Deze release plaatst Xiaomi naast andere toonaangevende AI-model laboratoria. Belangrijke benchmarkconclusies: ➤ Sterke punten in Agentic Tool Use en Competition Math: MiMo-V2-Flash scoort 95% op τ²-Bench Telecom en 96% op AIME 2025, wat sterke prestaties aantoont op workflows voor agentic toolgebruik en wiskundig redeneren in competitie-stijl. MiMo-V2-Flash leidt momenteel de τ²-Bench Telecom-categorie onder geëvalueerde modellen. ➤ Kostenconcurrentie: De volledige Artificial Analysis-evaluatiesuite kostte slechts $53 om uit te voeren. Dit wordt ondersteund door de zeer concurrerende prijsstelling van MiMo-V2-Flash van $0,10 per miljoen invoer en $0,30 per miljoen uitvoer, wat het bijzonder aantrekkelijk maakt voor kostenbewuste implementaties en grootschalige productie-werkbelastingen. Dit is vergelijkbaar met DeepSeek V3.2 ($54 totale kosten om uit te voeren), en ver onder GPT-5.2 ($1.294 totale kosten om uit te voeren). ➤ Hoog tokengebruik: MiMo-V2-Flash toont een hoge verbositeit en tokengebruik in vergelijking met andere modellen in dezelfde intelligentieklasse, met ongeveer 150M redeneer-tokens in de Artificial Analysis Intelligence-suite. ➤ Open gewichten: MiMo-V2-Flash heeft open gewichten en is 309B parameters met 15B actief tijdens inferentietijd. Gewichten worden vrijgegeven onder een MIT-licentie, waarmee de trend van Chinese AI-model laboratoria om hun grensmodellen open source te maken, wordt voortgezet. Zie hieronder voor verdere analyse:
MiMo-V2-Flash toont bijzondere kracht in agentieel gereedschapsgebruik en Competitie Wiskunde, met een score van 95% op τ²-Bench Telecom en 96% op AIME 2025. Dit plaatst het onder de best presterende modellen in deze categorieën.
MiMo-V2-Flash is een van de meest kosteneffectieve modellen voor zijn intelligentie, geprijsd op slechts $0,10 per miljoen invoertokens en $0,30 per miljoen uitvoertokens.
MiMo-V2-Flash genereerde ~150M redeneertokens tijdens het uitvoeren van de Artificial Analysis evaluatiesuite, waardoor het een van de meest token-intensieve modellen is die getest zijn - dit heeft implicaties voor de latentie en compenseert enkele van zijn prijsvoordelen.
MiMo-V2-Flash scoort -62 op de AA-Omniscience Index, voornamelijk gedreven door een relatief hoge hallucinatiegraad.
Individuele resultaten van onze Kunstmatige Analyse Intelligentie Index set van evaluaties:
Zie Kunstmatige Analyse voor verdere details en benchmarks van MiMo-V2-Flash
6,64K