🚨 DeepSeek gjorde precis något galet. De byggde en matematisk modell som inte bara löser problem, utan kontrollerar sina egna bevis, kritiserar sig själv, rättar logiken och försöker igen tills den inte hittar en enda brist. Den sista delen är genombrottet, en modell som kan verifiera sitt eget resonemang innan du verifierar det. Och resultaten är löjliga: • Guldnivåprestation på IMO 2025 • Guldnivåprestation på CMO 2024 • 118/120 på Putnam 2024 nästan perfekt, slår alla mänskliga poäng • Överträffar GPT-5 Thinking och Gemini 2.5 Pro i de svåraste kategorierna Det som gör DeepSeek Math V2 galet är inte noggrannheten, utan arkitekturen bakom. De jagade inte större modeller eller längre tankegångar. De byggde ett ekosystem: ✓ en dedikerad verifierare som letar efter logiska luckor ✓ En metaverifierare som kontrollerar om verifieraren hallucinerar ✓ En bevisgenerator som lär sig att frukta dåligt resonemang ✓ och en träningsloop där modellen fortsätter att generera svårare bevis som tvingar verifieraren att utvecklas Cykeln är brutal: Generera → verifiera → meta-verifiera → fixa → upprepa. Kärnproblemet de löste: noggrannheten i slutsvaret betyder ingenting i teorembeviset. Du kan få rätt nummer med skräplogik. Så de tränade en verifierare att bedöma beviset självt, inte det slutgiltiga svaret. ...