Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 A DeepSeek acabou de fazer algo incrível.
Eles construíram um modelo matemático que não apenas resolve problemas, mas verifica suas próprias provas, critica a si mesmo, corrige a lógica e tenta novamente até não conseguir encontrar um único erro.
Essa parte final é a grande inovação: um modelo que pode verificar seu próprio raciocínio antes que você o verifique.
E os resultados são ridículos:
• Desempenho de nível ouro no IMO 2025
• Desempenho de nível ouro no CMO 2024
• 118/120 no Putnam 2024, quase perfeito, superando todas as pontuações humanas
• Supera o GPT-5 Thinking e o Gemini 2.5 Pro nas categorias mais difíceis
O que torna o DeepSeek Math V2 incrível não é a precisão, mas a arquitetura por trás dele.
Eles não perseguiram modelos maiores ou cadeias de raciocínio mais longas.
Eles construíram um ecossistema:
✓ um verificador dedicado que procura lacunas lógicas
✓ um meta-verificador que checa se o verificador está alucinado
✓ um gerador de provas que aprende a temer raciocínios ruins
✓ e um ciclo de treinamento onde o modelo continua gerando provas mais difíceis que forçam o verificador a evoluir
O ciclo é brutal:
Gerar → Verificar → Meta-verificar → Corrigir → Repetir.
A questão central que eles resolveram: a precisão da resposta final não significa nada na prova de teoremas. Você pode obter o número certo com uma lógica ruim. Então, eles treinaram um verificador para julgar a prova em si, não a resposta final.
...

Top
Classificação
Favoritos

