Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 A DeepSeek acabou de fazer algo louco.
Eles construíram um modelo matemático que não apenas resolve problemas, ele verifica suas próprias provas, se critica, corrige a lógica e tenta novamente até não encontrar nenhuma falha.
Essa última parte é o avanço, um modelo que pode verificar seu próprio raciocínio antes de você verificá-lo.
E os resultados são ridículos:
• Desempenho de nível Ouro na IMO 2025
• Desempenho de nível ouro no CMO 2024
• 118/120 no Putnam 2024 quase perfeito, superando todas as pontuações humanas
• Supera GPT-5 Thinking e Gemini 2.5 Pro nas categorias mais difíceis
O que torna o DeepSeek Math V2 louco não é a precisão, é a arquitetura por trás dele.
Eles não perseguiam modelos maiores ou uma cadeia de pensamento mais longa.
Eles construíram um ecossistema:
✓ um verificador dedicado que procura lacunas lógicas
✓ um meta-verificador que verifica se o verificador está alucinando
✓ um gerador de provas que aprende a temer o raciocínio ruim
✓ e um ciclo de treinamento onde o modelo continua gerando provas mais difíceis que forçam o verificador a evoluir
O ciclo é brutal:
Gerar → verificar → meta-verificar → corrigir → repetir.
O problema central que eles resolveram: a precisão da resposta final não significa nada na prova de teoremas. Você pode conseguir o número certo com lógica ruim. Então treinaram um verificador para julgar a prova em si, não a resposta final.
...

Melhores
Classificação
Favoritos

