DeepSeek V3.2 é o modelo de pesos abertos #2 mais inteligente e também está à frente do Grok 4 e do Claude Sonnet 4.5 (Pensamento) - ele tira a Atenção Escassa do DeepSeek do status 'experimental' e a combina com um impulso material na inteligência @deepseek_ai V3.2 pontua 66 no Índice de Inteligência de Análise Artificial; um aumento substancial de inteligência em relação ao DeepSeek V3.2-Exp (+9 pontos) lançado em setembro de 2025. A DeepSeek mudou seu endpoint principal da API para a V3.2, sem alteração de preço em relação ao preço V3.2-Exp – isso coloca a tarifa em apenas $0,28/$0,42 por 1M de tokens de entrada/saída, com 90% de desconto para tokens de entrada em cache. Desde o lançamento original do DeepSeek V3, há ~11 meses, no final de dezembro de 2024, a arquitetura V3 do DeepSeek com 671 B no total/37 milhões de parâmetros ativos fez com que eles passassem de um modelo com pontuação de 32 para 66 no Índice de Inteligência de Análise Artificial. A DeepSeek também lançou a V3.2-Speciale, uma variante apenas por razão com capacidades aprimoradas, mas com uso significativamente maior de tokens. Esse é um trade-off comum em modelos de raciocínio, onde um raciocínio mais aprimorado geralmente gera pontuações de inteligência mais altas e mais tokens de saída. A versão 3.2-Speciale está disponível via API de primeira parte do DeepSeek até 15 de dezembro. A V3.2-Speciale atualmente apresenta pontuações mais baixas no Índice de Inteligência de Análise Artificial (59) do que a V3.2 (Reasoning, 66) porque a API de primeira mão do DeepSeek ainda não suporta a necessidade de ferramenta para esse modelo. Se o V3.2-Speciale igualasse a pontuação tau2 da V3.2 (91%) com o chamado de ferramenta ativado, ele pontuaria ~68 no Índice de Inteligência, tornando-se o modelo de pesos abertos mais inteligente. A V3.2-Speciale utiliza 160M de tokens de saída para rodar o Índice de Inteligência de Análise Artificial, quase ~2 vezes o número de tokens usados pela V3.2 no modo de raciocínio. O DeepSeek V3.2 utiliza uma arquitetura idêntica à V3.2-Exp, que introduziu o DeepSeek Sparse Attention (DSA) para reduzir o processamento necessário para inferência de contexto longo. Nosso benchmark de Raciocínio de Longo Contexto não mostrou custo para a inteligência com a introdução da DSA. A DeepSeek refletiu essa vantagem de custo do V3.2-Exp ao reduzir o preço da API de primeira mão de $0,56/$1,68 para $0,28/$0,42 por 1M de tokens de entrada/saída – uma redução de 50% e 75% no preço dos tokens de entrada e saída, respectivamente. Principais lições de benchmarking: ➤ 🧠 DeepSeek V3.2: No modo de raciocínio, o DeepSeek V3.2 obtém 66 no Índice de Inteligência de Análise Artificial e se posiciona equivalentemente a Kimi K2 Thinking (67) e à frente de Grok 4 (65), Grok 4.1 Fast (Reasoning, 64) e Claude Sonnet 4.5 (Thinking, 63). Ele demonstra melhorias notáveis em comparação com a V3.2-Exp (57) no uso de ferramentas, raciocínio de contexto longo e programação. ➤ 🧠 DeepSeek V3.2-Speciale: V3.2-Speciale pontua superior à V3.2 (Raciocínio) em 7 dos 10 benchmarks do nosso Índice de Inteligência. A V3.2-Speciale agora detém as maiores e segundas maiores pontuações entre todos os modelos para o AIME25 (97%) e o LiveCodeBench (90%), respectivamente. No entanto, como mencionado acima, a API de primeira parte do DeepSeek para V3.2-Speciale não suporta chamada de ferramentas e o modelo obtém pontuação 0 no benchmark tau2. ➤ 📚 Alucinação e Conhecimento: DeepSeek V3.2-Speciale e V3.2 são os modelos de pesos abertos mais bem classificados no Índice de Onisciência de Análise Artificial, com pontuações de -19 e -23, respectivamente. Modelos proprietários do Google, Anthropic, OpenAI e xAI normalmente lideram esse índice. ➤ ⚡ Desempenho não raciocínio: No modo não-raciocínio, o DeepSeek V3.2 obtém 52 no Índice de Inteligência de Análise Artificial (+6 pontos vs. V3.2-Exp) e é o modelo não-raciocínio #3 mais inteligente. O DeepSeek V3.2 (Não raciocínio) corresponde à inteligência do DeepSeek R1 0528, um modelo de raciocínio de fronteira de maio de 2025, destacando os rápidos ganhos de inteligência alcançados por meio de melhorias no pré-treinamento e no RL neste ano. ➤ ⚙️ Eficiência de tokens: No modo de raciocínio, o DeepSeek V3.2 usou mais tokens do que o V3.2-Exp para rodar o Índice de Inteligência de Análise Artificial (de 62M a 86M). O uso de tokens permanece semelhante na variante sem raciocínio. A V3.2-Speciale demonstra um uso significativamente maior de tokens, usando ~160M tokens de saída à frente do Kimi K2 Thinking (140M) e Grok 4 (120M) ➤💲Precificação: A DeepSeek não atualizou o preço por token para sua empresa de primeira parte e todas as três variantes estão disponíveis por $0,28/$0,42 por 1M de tokens de entrada/saída Outros detalhes do modelo: ➤ ©️ Licenciamento: O DeepSeek V3.2 está disponível sob a Licença MIT ➤ 🌐 Disponibilidade: O DeepSeek V3.2 está disponível via API do DeepSeek, que substituiu o DeepSeek V3.2-Exp. Os usuários podem acessar o DeepSeek V3.2-Speciale via uma API temporária do DeepSeek até 15 de dezembro. Dado o aumento de inteligência neste comunicado, esperamos que vários provedores terceirizados atendam esse modelo em breve. ➤ 📏 Tamanho: O DeepSeek V3.2 Exp possui 671B de parâmetros totais e 37B de parâmetros ativos. Isso é igual a todos os modelos anteriores das séries DeepSeek V3 e R1
Com o preço de API de primeira mão da DeepSeek de $0,28/$0,42 por 1M de tokens de entrada/saída, a V3.2 (Raciocínio) está na fronteira de Pareto do gráfico Inteligência vs. Custo para Executar Inteligência de Análise Artificial
DeepSeek V3.2-Speciale é o modelo de pesos abertos mais bem classificado no Índice de Onisciência de Análise Artificial, enquanto o V3.2 (Raciocínio) corresponde ao Pensamento Kimi K2
O DeepSeek V3.2 é mais prolixo do que seu antecessor no modo de raciocínio, usando mais tokens de saída para rodar o Índice de Inteligência de Análise Artificial (86M vs. 62M).
Compare como o DeepSeek V3.2 se comporta em relação aos modelos que você está usando ou considerando em:
75,77K