🚨 DeepSeek щойно зробив щось дике. Вони створили математичну модель, яка не просто розв'язує задачі, а перевіряє власні докази, критикує себе, виправляє логіку і пробує знову, поки не знаходить жодної помилки. Остання частина — це прорив у моделі, яка може перевірити власне обґрунтування перед тим, як ви її перевірите. І результати абсурдні: • Результати на рівні золота на IMO 2025 • Результати золотого рівня на CMO 2024 • 118/120 на Putnam 2024 майже ідеально, перевершуючи будь-який людський результат • Перевершує GPT-5 Thinking і Gemini 2.5 Pro у найскладніших категоріях Те, що робить DeepSeek Math V2 божевільною, — це не точність, а архітектура, що стоїть за нею. Вони не ганялися за більшими моделями чи довшими думками. Вони побудували екосистему: ✓ Спеціалізований перевіркувач, який шукає логічні прогалини ✓ мета-верифікатор, який перевіряє, чи галюцинує верифікатор ✓ Генератор доказів, який вчиться боятися поганого мислення ✓ і тренувальний цикл, де модель постійно генерує складніші докази, що змушують перевірювача еволюціонувати Цей цикл жорстокий: Генеруйте → перевіряйте → мета-верифікація → виправляйте → повторюйте. Основна проблема, яку вони вирішили: точність остаточної відповіді нічого не означає у доведення теорем. Ви можете отримати правильне число з поганою логікою. Тож вони навчили перевіряюча, щоб оцінювати сам доказ, а не остаточну відповідь. ...