DeepSeek lança V3.2 e Speciale, com inferência e desempenho quase iguais ao GPT-5 e Gemini 3

ChainNewsAbmedia

DeepSeek lançou dois novos modelos em 12/2, que são o DeepSeek-V3.2 e o DeepSeek-V3.2-Speciale, que se especializa em raciocínio matemático. A empresa afirmou que esses dois modelos continuam na direção experimental inicial, com o objetivo de atualizar completamente suas capacidades de raciocínio, uso de ferramentas e habilidades de pensamento prolongado. A DeepSeek também enfatizou que a versão oficial V3.2 já pode ser comparada ao GPT-5 e Gemini-3 Pro em vários testes de raciocínio, enquanto a versão Speciale alcançou um nível de medalha de ouro internacional em competições de matemática e informática.

Versão experimental a liderar, versão oficial V3.2 a assumir o comando.

A DeepSeek, ao lançar a versão V3.2-Exp em setembro, posicionou-a como uma plataforma experimental rumo à próxima geração de IA. A versão oficial lançada agora, DeepSeek-V3.2, não possui mais a designação “Exp”, simbolizando funcionalidades mais maduras.

A explicação oficial indica que o novo V3.2 apresenta um desempenho semelhante ao GPT-5 e Gemini-3 Pro em vários testes de raciocínio, enfatizando que esta é a primeira vez que eles integram de forma estreita o “modo de pensamento” com a “aplicação de ferramentas” em um modelo, e que suporta simultaneamente modos de pensamento e não pensamento. A partir da imagem abaixo, pode-se concluir:

“DeepSeek-V3.2 provou, através de testes de referência, que a sua capacidade de utilização de ferramentas é comparável a modelos de topo como o GPT-5 e o Gemini-3 Pro.”

Capacidade de raciocínio aprimorada, ferramentas integradas como o maior destaque

A DeepSeek afirma que o grande destaque da V3.2 é a capacidade de combinar o processo de raciocínio com o uso de ferramentas. Em outras palavras, o modelo pode chamar motores de busca, calculadoras, executores de código e outras ferramentas externas enquanto pensa sobre algo, tornando o processo de tratamento da tarefa mais completo, mais autônomo e mais próximo da maneira como os humanos lidam com problemas.

Speciale foca em raciocínio de longo prazo, desempenho matemático alcançando nível de medalha de ouro.

Além da versão padrão V3.2, a DeepSeek lançou simultaneamente outra versão, DeepSeek-V3.2-Speciale. Esta versão foi projetada especificamente para raciocínio matemático de alta dificuldade e para longos períodos de reflexão.

A posição oficial é a de explorar os limites da capacidade de raciocínio de modelos de código aberto, e até mesmo ver até onde o próprio modelo pode chegar. Em termos de desempenho, o Speciale alcançou o nível de medalha de ouro em competições como a Olimpíada Internacional de Matemática (IMO) e a Olimpíada Internacional de Informática (IOI), e seu desempenho de raciocínio é comparável ao mais recente Gemini-3 Pro do Google. A partir da imagem abaixo, podemos concluir:

“A capacidade de raciocínio do DeepSeek-V3.2-Speciale atingiu o nível de medalha de ouro em competições internacionais de matemática e informação, superando ou igualando o desempenho do GPT-5, Gemini-3 Pro e Kimi-K2 em vários testes de benchmark de raciocínio e programação.”

Novo método de treinamento revelado, capacidade de agente de IA reforçada

Para além do modelo, a DeepSeek também divulgou uma nova pesquisa, na qual desenvolveram um novo método para treinar agentes de IA. Esses agentes conseguem interagir com o ambiente externo, analisar dados e tomar decisões sem a necessidade de instruções humanas contínuas.

A DeepSeek enfatiza que esta é a tecnologia básica que eles projetaram para permitir que a IA opere com maior eficiência e reaja mais rapidamente.

Continua um mês de volume de voz, o ritmo de desenvolvimento continua a acelerar

A DeepSeek chamou a atenção global em janeiro deste ano devido a um modelo revolucionário. A série V3.2, que é o mais recente resultado da continuidade de sua pesquisa após aquele sucesso. Antes do lançamento da V3.2, a DeepSeek lançou na semana passada o DeepSeekMath-V2, um modelo de código aberto focado na prova de teoremas matemáticos, mostrando que eles estão continuamente fortalecendo suas capacidades nas áreas de raciocínio e matemática.

Relatório técnico publicado, V3.2 com capacidade de inferência próxima do GPT-5 e Kimi

A DeepSeek também lançou o relatório técnico “DeepSeek-V3.2: Pushing the Frontier of Open Large Language Models”, apontando que a V3.2 apresenta desempenho semelhante ao GPT-5 e Kimi-k2-thinking em vários testes de referência de raciocínio.

Este relatório também enfatiza que a competitividade dos modelos de código aberto locais da China na área de inferência continua a estar no mesmo nível que os modelos de topo internacionais.

Este artigo DeepSeek lançou V3.2 e Speciale, com raciocínio e desempenho que se aproximam do GPT-5 e Gemini 3, apareceu pela primeira vez na Chain News ABMedia.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário