A DeepSeek lançou uma pré-visualização de código aberto da V4, com uma pontuação técnica de 3206, superando o GPT-5.4

DeepSeek V4開源預覽版

A DeepSeek lançou oficialmente a série de pré-visualização V4 em 24 de abril, com o código aberto sob a licença MIT. Os pesos do modelo foram sincronizados e disponibilizados no Hugging Face e no ModelScope. De acordo com o relatório técnico da DeepSeek V4, o V4-Pro-Max (modo de maior intensidade de inferência) obteve 3206 pontos no benchmark do Codeforces, superando o GPT-5.4.

Especificações da arquitectura dos dois modelos MoE

De acordo com o relatório técnico da DeepSeek V4, a série V4 inclui dois modelos de mistura de especialistas (MoE):

V4-Pro: 1,6T parâmetros no total, 49B activados por token, suporta contexto de 1M tokens

V4-Flash: 284B parâmetros no total, 13B activados por token, suporta igualmente contexto de 1M tokens

De acordo com o relatório técnico, no contexto de 1M tokens, a FLOPs de inferência por token do V4-Pro é apenas 27% do V3.2; o cache KV desce para 10% do V3.2. Isto deve-se sobretudo às actualizações da arquitectura do mecanismo de atenção em mistura (CSA—Compressed Sparse Attention + HCA—Heavy Compressed Attention). O tamanho do conjunto de dados de pré-treino excede 32T tokens; o optimizador de treino foi actualizado para Muon.

Metodologia de pós-treino: a destilação de estratégia online substitui a aprendizagem por reforço de mistura

De acordo com o relatório técnico da DeepSeek V4, a principal actualização no pós-treino do V4 reside em substituir totalmente a fase de aprendizagem por reforço de mistura (mixed RL) do V3.2 por destilação de estratégia online (On-Policy Distillation, OPD). O novo processo divide-se em duas etapas: em primeiro lugar, treinar especialistas de domínio separadamente para domínios como matemática, código, Agent e seguimento de instruções (SFT + aprendizagem por reforço GRPO); em seguida, usar vários professores OPD para destilar as capacidades de mais de uma dúzia de especialistas para um único modelo unificado, alinhando via logit para evitar conflitos de capacidades comuns nos métodos tradicionais.

O relatório introduz também um modelo de recompensa gerativa (Generative Reward Model, GRM), para tarefas que são difíceis de validar com regras. Com poucos dados de anotações humanas diversificadas para treinar, o modelo assume simultaneamente funções de geração e avaliação.

Resultados dos testes de benchmark: liderança na codificação, ainda há diferenças na inferência de conhecimento

De acordo com o relatório técnico da DeepSeek V4, os resultados de comparação entre o V4-Pro-Max e Opus 4.6 Max, GPT-5.4 xHigh e Gemini 3.1 Pro High (excluindo o GPT-5.5 e o Opus 4.7 lançados recentemente):

Codeforces:3206(GPT-5.4:3168 / Gemini 3.1 Pro:3052)→ o mais alto no geral

LiveCodeBench:93.5 → o mais alto no geral

SWE Verified:80.6, atrás do Opus 4.6 de 80.8, menos 0.2 pontos percentuais

GPQA Diamond:90.1, atrás do Gemini 3.1 Pro de 94.3

SimpleQA-Verified:57.9, atrás do Gemini 3.1 Pro de 75.6

HLE:37.7, atrás do Gemini 3.1 Pro de 44.4

O relatório técnico aponta ainda que as comparações acima não incluem o GPT-5.5 e o Opus 4.7, lançados recentemente. A diferença entre o V4 e os modelos mais recentes fechados carece de validação através de testes de terceiros.

Perguntas frequentes

Quais são os termos de licença de código aberto do pré-visualização DeepSeek V4 e onde os posso obter?

De acordo com o anúncio oficial da DeepSeek de 24 de abril, a série V4 é de código aberto sob a licença MIT. Os pesos do modelo já foram disponibilizados no Hugging Face e no ModelScope, e aplicam-se a usos comerciais e académicos.

Qual é a diferença no tamanho dos parâmetros entre o DeepSeek V4-Pro e o V4-Flash?

De acordo com o relatório técnico da DeepSeek V4, o V4-Pro tem 1,6T parâmetros no total, com 49B activados por token; o V4-Flash tem 284B parâmetros no total, com 13B activados por token. Ambos suportam contexto de 1M tokens.

Quais são os resultados da comparação de benchmark entre o DeepSeek V4-Pro-Max e o GPT-5.4 e o Gemini 3.1 Pro?

De acordo com o relatório técnico da DeepSeek V4, o V4-Pro-Max superou o GPT-5.4 e o Gemini 3.1 Pro em dois benchmarks: Codeforces (3206 pontos) e LiveCodeBench (93.5). No entanto, em benchmarks intensivos em conhecimento (GPQA Diamond, SimpleQA-Verified, HLE) continua a ficar atrás do Gemini 3.1 Pro; o conjunto de comparação não inclui o GPT-5.5 e o Opus 4.7.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

A Kaisar Network conclui $4 milhões de financiamento para a camada 1 descentralizada de computação de IA

De acordo com a ChainCatcher, a Kaisar Network, uma rede descentralizada de computação de IA na Layer 1, concluiu $4 milhões em financiamento até à data, incluindo 1 milhão de dólares numa ronda estratégica de Pre-Seed. Os investidores incluem Merov Capital, StoneBlock, WM Capital, Arche Fund, Q42 e Unicorn Ventures. A rede

GateNews57m atrás

O CFO da OpenAI desmente rumores sobre metas de receitas e diz que a empresa está a executar no nível mais alto em 1 de Maio

Segundo a Bloomberg, a diretora financeira (CFO) da OpenAI, Sarah Friar, desmentiu rumores a 1 de maio de que a empresa teria falhado as metas internas de vendas e de utilizadores. Friar afirmou que a empresa está a executar os seus planos no mais alto nível, descrevendo a procura pelos produtos como uma «parede vertical». Referiu que a execução

GateNews1h atrás

O assessor de Musk revela a licitação $974B da xAI por ativos sem fins lucrativos da OpenAI em tribunal, suscitando nova análise

De acordo com o testemunho de Jared Birchall no 4.º dia do processo de Musk contra a OpenAI, a proposta de xAI no valor de 974 mil milhões de dólares pelos activos sem fins lucrativos da OpenAI tinha como objectivo impedir que Sam Altman subvalorizasse os activos durante a reestruturação da OpenAI. No entanto, a juíza Yvonne Gonzalez Rogers questionou como é que Birchall poderia apresentar uma proposta de 974 mil milhões de dólares

GateNews2h atrás

Musk admite que a xAI usou destilação em modelos da OpenAI durante o 4.º dia do julgamento

Segundo a Beating e a The Verge, no 4.º dia do julgamento entre Musk e a OpenAI, os advogados da OpenAI questionaram se a xAI tinha usado destilação para melhorar os seus modelos com tecnologia da OpenAI. Musk afirmou inicialmente que «quase todas as empresas de IA fazem isto», mas quando lhe pediram uma resposta direta, reconheceu

GateNews2h atrás

66,3% dos trabalhadores americanos com rendimentos elevados utilizam ferramentas de IA no trabalho, mostra um inquérito da Reserva Federal

De acordo com um inquérito da Reserva Federal, 66,3% dos trabalhadores nos EUA com rendimentos superiores a 200.000 USD anuais já utilizaram ferramentas de IA no trabalho nos últimos 12 meses, à data de 1 de maio. Entre os escalões de rendimentos mais baixos, as taxas de utilização diminuem significativamente: 51,6% para os que auferem entre 100.000 USD e 200.000 USD, 40,2% para os que ganham entre 50.000 USD e 100.000 USD,

GateNews3h atrás

xAI lança a API do Grok 4.3 com uma janela de contexto de 1 milhão de tokens a 1,25 dólares por milhão de tokens de entrada

De acordo com a BlockBeats, a xAI lançou a API do Grok 4.3 a 1 de maio. O novo modelo suporta uma janela de contexto de 1 milhão de tokens e oferece funcionalidades de entrada/saída de texto, capacidades multimodais e chamadas de ferramentas. A API do Grok 4.3 tem um preço de $1,25 por milhão de entradas

GateNews3h atrás
Comentar
0/400
Nenhum comentário