Não se apresse em All-in DeepSeek V4, primeiro confira as opiniões sinceras destes 10 profissionais

nulo

Texto|Zhou Xinyu Wang Yuchan

Edição|Yang Xuan

Interpretar o relatório técnico do DeepSeek V4 tem sido a atividade coletiva mais fervorosa da indústria de IA nestes dias.

V4 é realmente forte? Na dimensão de otimização de engenharia, a resposta é indiscutível. No passado, todos acreditavam na “estética da violência das leis de escalonamento” — ou seja, aumentar mais poder de cálculo de alta qualidade e maior escala de parâmetros para melhorar o desempenho do modelo. E o V4 trilha um caminho completamente diferente, definindo uma “estética de moderação no treinamento de modelos”:

Ele não depende de acumular loucamente poder de cálculo e parâmetros, mas sim através de uma série de otimizações combinadas e reconstruções:

Mecanismo de atenção (faz o modelo aprender a “captar o foco”, como quando uma pessoa lê um artigo longo e automaticamente foca nas frases-chave)

Arquitetura MoE (especialistas mistos, que podem ser entendidos como “diferentes especialistas responsáveis por diferentes tipos de problemas, ativando apenas alguns de cada vez, economizando tempo e esforço”)

Pós-treinamento (reforço direcionado após a formação inicial do modelo)

Engenharia do sistema de inferência (otimização da eficiência de cada etapa na operação real)

O resultado dessa abordagem é que o V4-Pro, ao lidar com contextos longos de cerca de um milhão de tokens (aproximadamente dezenas de milhares de palavras), reduziu o consumo de cálculo necessário para o processamento em 73% em relação à geração anterior, V3.2, enquanto a cache KV (que funciona como “esboço de notas” do modelo ao conversar com você) foi comprimida a apenas 10% do tamanho original.

Porém, engenharia é engenharia, rankings são rankings.

Ao avaliar um modelo, não queremos apenas olhar para os parâmetros na teoria, mas discutir seu valor em cenários reais de implantação, desenvolvimento e investimento. Para isso, convidamos cerca de 10 desenvolvedores, empreendedores de aplicações e investidores para uma experiência e testes ao longo de três dias.

Começando por uma conclusão contraintuitiva: o impacto do DeepSeek na camada de aplicação talvez seja maior do que na camada de modelo.

Além de admirar a otimização de engenharia extrema, como o próprio DeepSeek admite no relatório técnico do V4: sua trajetória de desenvolvimento fica cerca de 3 a 6 meses atrás dos modelos fechados de ponta — o que, na prática, equivale a fazer um pacto com o diabo: alongar a capacidade de raciocínio e agentes inteligentes, ao custo de sacrificar alguma precisão.

Fabricantes de modelos fechados podem, por ora, respirar aliviados. Para o mundo comercial, que valoriza estabilidade e precisão, o V4 claramente não é um modelo pronto para produção.

O principal cientista-chefe da Pine AI, Li Bojie, e o empreendedor de um agente de codificação de destaque, Chillin, nos disseram diretamente que a estabilidade na chamada “chamada de ferramentas” (tool invocation) e a taxa de alucinações (imagens ou respostas incorretas) precisam ser reforçadas na camada de harness (que é como uma “rédea” e “cinto de segurança” para o agente, regulando seu comportamento e reduzindo erros). Sem uma estrutura de suporte, a implementação do V4 é inviável.

Por outro lado, a evolução da inteligência muitas vezes influencia o ecossistema de aplicações downstream. Empreender em IA enfrentará testes mais severos de tecnologia e capital.

“O desempenho do modelo base ainda está evoluindo rapidamente” — esse consenso na indústria também significa que aplicações podem ser facilmente subvertidas por novos modelos. Um investidor de fundo de moeda dupla citou vários exemplos de “obsoletismo recente”: “Workflow, Coding…”

A startup de aplicações de IA, Junyue Intelligence, resumiu: a barreira futura para aplicações de IA será organizar o modelo, agente, cenário de produto e feedback de dados em um sistema de produção confiável, de baixo custo e escalável.

Destaque: não apenas capacidade de textos longos e programação, mas alta capacidade a baixo custo

Prévia: vantagem central — código e capacidade de agentes

Em avaliações-chave de código e engenharia de software, o V4-Pro demonstrou o nível mais alto entre os modelos de código aberto atuais, quase equiparando-se aos melhores modelos fechados. Os principais dados estão organizados assim:

IA para desenho

🧑‍🏫 Co-fundador e CTO da PingCAP, Huang Dongxu

Estou migrando meu fluxo de trabalho Hermes para o DeepSeek V4. Antes, usava bastante Claude Opus e GPT5.4 como agentes, mas percebi que a maioria das tarefas diárias não requer uma capacidade de codificação tão avançada.

Tarefas diárias, incluindo: (a) organização de emails; (b) redação de artigos; © gerenciamento de calendário; (d) resumos de conteúdo; (e) navegação na web.

Agora, já troquei totalmente para o DeepSeek V4. O desempenho superou minhas expectativas, provavelmente por otimizações específicas para o chinês, com uma capacidade linguística geral mais alinhada ao falante nativo de chinês do que Opus ou GPT.

Minha primeira conclusão: se você atualmente usa modelos mais caros como assistentes diários, pode confiar em migrar para o DeepSeek V4 Pro.

Sua capacidade está aproximadamente entre Claude Sonnet 4.5 e 4.6, mas com custo inferior a um quarto dos principais modelos. Agora, não preciso mais me preocupar tanto com o custo do agente.

O artigo do DeepSeek V4 sempre enfatizou um contexto de 1 milhão de tokens, mas na minha opinião isso não é tão relevante, pois os modelos SOTA atuais já suportam pelo menos esse tamanho — apenas alcançaram essa marca.

O verdadeiro diferencial está em:

  1. Custo realmente muito baixo;

  2. É um modelo open source.

Assim, não preciso me preocupar com o fornecimento da Anthropic ou OpenAI, pois minhas workflows anteriores já enfrentaram problemas semelhantes. Com o DeepSeek V4, tenho maior segurança.

Depois, a capacidade de programação. Como meu teste foi curto, ainda não desenvolvi aplicações muito complexas.

Mas, para códigos de algumas milhares de linhas, ou aplicações pequenas, ou cenários com chamadas a sistemas externos (como conectar-se ao Supabase ou TiDB Cloud lendo documentação de ferramentas pouco familiares), minha sensação é que o desempenho é bastante satisfatório.

Para códigos entre algumas milhares e dez mil linhas, a taxa de sucesso do V4 em uma única rodada (fornecendo exemplos e instruções de uma vez, sem ajustes adicionais) ainda é alta.

Portanto, se seu projeto envolve sites simples ou aplicações pequenas, a capacidade de programação do DeepSeek certamente é muito superior à geração anterior.

Porque meu framework Harness não é muito complexo, mais dependente da colaboração do próprio modelo (usando Slock.ai), há duas principais vantagens:

  1. Pode colaborar com agentes que usam outros modelos;

  2. Pode realizar tarefas simples ou específicas.

Assim, se modelos mais avançados (como GPT5.5) orientarem o V4 Pro, e ele for responsável por executar, essa abordagem pode reduzir bastante o custo de engenharia do Harness.

🧑‍🏫 Vice-presidente do Centro de Tecnologia e Produto da Zero One Wanwu, Zhao Binqiang

DeepSeek V4 não é “o mais completo”, mas é “o mais confiável” — compromisso firme com open source, relatório técnico completo, custo de inferência extremamente baixo, toda a cadeia tecnológica nacional, tornando-se a escolha de melhor custo-benefício para cenários empresariais.

O que mais me impressiona no V4 são duas coisas.

Primeiro, a inovação na arquitetura de baixo nível. Manter alta qualidade de inferência com uma janela de contexto de 1 milhão de tokens, graças à inovação na atenção híbrida. Essa mecânica pode ser entendida como: “leitura grosseira” para captar o significado geral, “leitura detalhada” para entender os detalhes com precisão.

Especialmente na compressão de contexto, a pesquisa é avançada, e o DeepSeek divulgou detalhes sem reservas no relatório técnico. Essa transparência e espírito de open source são extremamente valiosos na indústria competitiva de grandes modelos.

Segundo, a adaptação completa ao stack de computação nacional. DeepSeek conseguiu adaptar-se ao Ascend 910B/950 da Huawei, com trabalho detalhado em quantização, mecanismos de sparsificação e otimizações específicas de domínio.

Isso significa que, desde o chip até o software de baixo nível, treinamento e inferência, a solução nacional completa já deu passos concretos na direção certa. Ainda que não se possa dizer que está completamente livre da dependência do ecossistema Nvidia, o caminho certo já foi trilhado. A dificuldade e o significado dessa conquista não podem ser subestimados.

🧑‍🏫 Cientista-chefe da Pine AI, Li Bojie

O mais impressionante é que o DeepSeek conseguiu fazer rodar, na escala de 1,6 trilhão de parâmetros (1.6T), uma série de inovações arquitetônicas como MoE, CSA+HCA, mHC, Muon, FP4QAT, que são muito avançadas na teoria, mas frequentemente falham em experimentos menores.

É como montar um motor gigante combinando tecnologias avançadas que, isoladamente, muitas vezes não funcionam bem em escala menor. Nós testamos mais de 20 arquiteturas diferentes, e quase todas só funcionam bem em 7 bilhões de parâmetros, enquanto em escalas maiores elas colapsam ou até se tornam contraproducentes.

Outros modelos também ficam presos nesse limite. Conseguir fazer várias inovações trabalharem juntas na maior escala demonstra que a tecnologia de treinamento do DeepSeek é profunda. Uma única inovação, “mHC”, amplificou o sinal de 27B em quase 3000 vezes na experiência, levando-o a cerca de 1,6 vezes, tornando o treinamento mais estável e controlável.

🧑‍🏫 Vice-presidente da Lenovo, Diretor de Investimentos da Lenovo Venture Capital, Sócio Sênior, Song Chunyu

DeepSeek prova que “custo-benefício de IA” pode se tornar uma vantagem estrutural proativa.

27% de uso de memória, apenas 10% de consumo de VRAM. Além disso, seu total de 1,6T de parâmetros ativa apenas 49B por vez, com alta eficiência.

Essa redução estrutural de custos, combinada com a API do V4-Flash a 1 yuan por milhão de tokens, faz do “contexto ultra longo acessível ao público” um novo padrão para aplicações de IA.

🧑‍🏫 Fundador e CEO da Yongyue Intelligence, Chen Weipeng

O que mais me anima no V4 não é apenas a melhora em capacidades pontuais, mas o fato de que o modelo nacional já entrou na fase de “participar na competição de sistemas Agent”.

Antes, o foco era se o modelo respondia, raciocinava ou escrevia código; hoje, o mais importante é se o modelo consegue completar tarefas complexas de forma estável, com baixo custo e alta eficiência, integrando-se a sistemas de produto reais.

Lamentavelmente: para uma implementação real, o V4 ainda precisa de “estruturas de suporte”

Prévia: desvantagens — conhecimento factual e raciocínio extremo

A equipe oficial do DeepSeek e plataformas de avaliação apontaram algumas fraquezas evidentes do V4-Pro. Para maior clareza, organizamos os principais pontos fracos na tabela abaixo:

IA para desenho.

🧑‍🏫 Cientista-chefe da Pine AI, Li Bojie

Minha principal utilização é em tarefas de código e agentes. Nesses trabalhos:

A capacidade de chamada de ferramentas e o conhecimento geral do mundo do V4-Pro estão aproximadamente no nível de uma versão intermediária de modelos de ponta (equivalente a Claude 4.6 Sonnet);

Porém, a estabilidade na chamada de ferramentas e a taxa de alucinações ainda são pontos críticos — esses precisam ser reforçados na camada de harness (como validações, retries automáticos, uso de bases externas de conhecimento para “grounding”, regras claras de uso de ferramentas). Caso contrário, em tarefas de cadeia longa, erros se acumulam e se amplificam;

Se esses dois problemas forem resolvidos na camada de harness, o custo de inferência geral pode ser reduzido várias vezes em relação aos modelos de ponta. Essa é a verdadeira alavanca.

Outra linha é: o V4-Flash, como uma “microajuste vertical”, é excelente. Microajuste vertical significa usar dados especializados de um setor específico para “reforçar” o modelo geral, tornando-o um especialista na área.

Modelos de mais de 1,6 trilhão de parâmetros para pós-treinamento (SFT/RL) são muito caros e inviáveis para a maioria das empresas, que preferem modelos de 200 a 300 bilhões de parâmetros. Nosso experimento com o modelo de 235B (235 bilhões) mostrou que o desempenho do V4-Flash, com microajuste, já supera o de modelos de 1 trilhão de parâmetros anteriores.

O Flash já alcançou o desempenho do anterior, de nível de código aberto, de bilhões de parâmetros, como o V3.2 e o Kimi antigo. Ele será a base preferencial para microajustes de negócios.

🧑‍🏫 Empreendedor de Coding Agent, Chillin

Nossa avaliação interna é que, na aplicação de Coding Agent, o V4 é equivalente ao nível do Claude de mais de um ano atrás.

O problema pode estar em dois aspectos: tamanho do parâmetro e dados. Ainda há uma diferença significativa entre o DeepSeek e a Anthropic.

Para uma implementação real, o V4 ainda precisa de estruturas especiais, como SWE-Agent (agente de engenharia de software), OpenHands (um agente de código aberto), Claude Code, OpenClaw. Essas exigem configuração adicional por parte do desenvolvedor.

🧑‍🏫 Fundador e CEO da Yongyue Intelligence, Chen Weipeng

Com base no uso do Loopit (produto de conteúdo interativo de IA da Yongyue), principalmente em cenários de codificação, podemos avaliar que o V4 ainda fica atrás dos principais modelos fechados internacionais em estabilidade e taxa de conclusão de tarefas complexas de longo prazo.

A capacidade dos principais modelos nacionais está se aproximando. Isso indica que a competição de modelos está entrando em uma nova fase: na era dos agentes, a habilidade de entender contextos longos, adaptar-se a estruturas complexas e completar tarefas de longo prazo de forma estável, com custos e velocidade aceitáveis, será igualmente importante.

A verdadeira diferença não está apenas no modelo, mas no sistema completo formado por modelo, pós-treinamento, estrutura de agentes, avaliação e eficiência de engenharia.

🧑‍🏫 Vice-presidente da Lenovo, Diretor de Investimentos da Lenovo Venture Capital, Sócio Sênior, Song Chunyu

O lançamento do V4 não incluiu uma versão multimodal nativa (que processa texto, imagem, som simultaneamente), o que é uma pena no cenário atual.

Porém, considerando sua estratégia de total adoção de computação nacional, provavelmente essa decisão foi para concentrar recursos na resolução do núcleo do problema de hardware de IA.

🧑‍🏫 Vice-presidente do Centro de Tecnologia e Produto da Zero One Wanwu, Zhao Binqiang

Chamar de “abaixo das expectativas” é um pouco rigoroso.

Mas, do ponto de vista de produtos voltados ao consumidor final, a versão Flash ainda não está suficientemente madura — ela tem limitações em tarefas complexas de criação e programação; a versão Pro, embora próxima do nível dos melhores modelos fechados, exige alto poder de cálculo inicial, criando uma barreira de entrada.

Impacto: IA não está simplesmente ficando mais barata

🧑‍🏫 Fundador e CEO da Yongyue Intelligence, Chen Weipeng

Uma tendência importante é que a IA não está simplesmente ficando mais barata.

O custo de uso dos modelos mais avançados no mercado global está aumentando, pois eles suportam tarefas mais complexas, com contextos mais longos e maior valor agregado. O que realmente está ficando mais barato são os modelos intermediários, open source e de implantação própria.

Portanto, no futuro, as empresas de aplicação não perguntarão apenas “qual modelo é o mais forte”, mas criarão um sistema de orquestração de modelos: quais tarefas precisam do modelo mais potente, quais podem usar modelos de bom custo-benefício, e quais capacidades podem ser complementadas por agentes e sistemas de engenharia.

O significado do V4 do DeepSeek é que ele enriquece ainda mais a oferta de modelos.

Para as empresas, não se trata apenas de substituir modelos estrangeiros, mas de permitir uma orquestração mais flexível, implantação própria e otimização de custos.

O verdadeiro diferencial na aplicação de IA no futuro não será apenas chamar um modelo, mas organizar modelo, agente, cenário de produto e feedback de dados em um sistema de produção confiável, de baixo custo e escalável.

Para a Loopit, essa tendência é fundamental. Nosso foco é conteúdo interativo de IA, onde a capacidade do modelo define o limite da criatividade, e o custo e velocidade determinam se a produção pode ser escalada.

Somente quando diferentes níveis de modelos estiverem suficientemente disponíveis e bem orquestrados, as ideias criativas de usuários comuns poderão ser geradas, interagidas e disseminadas em tempo real. O avanço do V4 do DeepSeek acelerará esse processo.

🧑‍🏫 Cientista-chefe da Pine AI, Li Bojie

No mercado de microajuste vertical, modelos de base de 200-300B, como Qianwen e Llama, estão sendo substituídos sistematicamente pelo sistema V4-Flash.

Todos os times que treinarem modelos dessa escala irão reavaliar; o desempenho do Flash na mesma escala já supera os modelos anteriores, com frameworks de inferência compatíveis (SGLang/vLLM/TileLang). Em seis meses, deve se tornar o padrão de início para modelos verticais open source nacionais.

O ecossistema de inferência do Huawei Ascend 950 SuperNode já está em fase inicial, desafiando o valor premium da Nvidia.

Este é o primeiro sistema completo de “chip nacional + modelo open source nacional de ponta” (sem uma adaptação inicial do V4 por Nvidia ou AMD). Após a grande escala do 950 no segundo semestre, uma onda de substituição de inferência totalmente doméstica deve ocorrer em cenários de agentes com contexto longo.

Essa mudança impacta indiretamente na reavaliação do valor da Nvidia no mercado chinês — não por queda de vendas, mas por redução do poder de negociação.

O custo total de uso de agentes capazes de realizar tarefas complexas de longo prazo caiu drasticamente.

O custo por token do V4-Pro, com cache não atingido, já foi reduzido a cerca de 1/6 a 1/7 do valor de modelos de ponta, com custos de entrada de US$1,74 por entrada e US$3,48 por saída, além de KV de 1 milhão de tokens e MegaMoE.

Desde que a camada de harness do setor corrija a estabilidade na chamada de ferramentas e a taxa de alucinações (com validadores, grounding externo, schemas rigorosos, votação de consistência), aplicações de múltiplas etapas, agentes de código longo e buscas profundas, que antes eram inviáveis por custo, poderão sair do estágio de demonstração e entrar na produção real ainda neste segundo semestre. O ponto de inflexão econômico do agente está nesta onda.

Além disso, os fabricantes fechados de ponta não irão baixar preços — seus produtos continuam líderes, e o V4 não ameaça essa liderança de preço.

🧑‍🏫 Vice-presidente do Centro de Tecnologia e Produto da Zero One Wanwu, Zhao Binqiang

A proposta central para aplicações empresariais de IA é: garantir o efeito desejado enquanto controla o custo ao longo de todo o ciclo. A chegada do V4 do DeepSeek oferece uma solução altamente competitiva.

O Flash cobre tarefas simples, o Pro cobre cenários de alta complexidade, e o custo total é muito menor do que as soluções fechadas de ponta, permitindo à Zero One Wanwu oferecer uma relação custo-benefício superior na entrega.

Mais importante, o compromisso do DeepSeek com open source é firme e inabalável — não há planos de fechar o código de repente, evitando que investimentos se percam. Essa postura firme fornece uma segurança valiosa para a escolha tecnológica empresarial.

A Zero One Wanwu já iniciou avaliações e validações de capacidades baseadas no V4, focando em desempenho em agendamento de produção, escritório inteligente, gestão de investimentos, entre outros cenários empresariais. Após validação, considerará substituir modelos existentes, levando mais setores a usar grandes modelos nacionais de ponta.

Após o lançamento do V4, acredito que o setor deve passar por três mudanças principais:

  1. Soluções completas de tecnologia nacional entram na fase de desenvolvimento, substituição nacional passa de “sonho” para “realidade”

A adaptação bem-sucedida do DeepSeek ao Huawei Ascend indica que a indústria de IA doméstica avançou na direção de uma cadeia completa de tecnologia nacional — chips, frameworks, modelos e aplicações.

Para clientes governamentais e empresariais com requisitos de conformidade, isso é uma necessidade real. A substituição nacional no mercado B2 deve acelerar significativamente.

  1. Abertura de modelos open source pressiona fechamento a reduzir preços, reduzindo a dependência de modelos fechados na aplicação

DeepSeek consegue alcançar desempenho próximo ao dos melhores modelos fechados, com preços muito inferiores. Seu efeito de demonstração elevará o padrão de desempenho de modelos open source.

Isso também pressionará fabricantes como Anthropic e OpenAI a ajustarem suas estratégias de preços. O foco do setor migrará de modelos de base para aplicações setoriais profundas, beneficiando o desenvolvimento de IA a longo prazo.

  1. Modelos open source não equivalem a aplicações empresariais, a capacidade de harness será o novo divisor de águas

A abertura de modelos reduz a barreira de entrada, mas a capacidade de harness define o nível de implementação. Desde modelos open source de alta qualidade até produtos empresariais confiáveis, há uma camada intermediária — que inclui eliminação de alucinações, conformidade com instruções, validação de erros, injeção de especialização, etc.

Cada setor tem suas necessidades específicas; não há uma única harness universal. Essa é a vantagem central da Zero One Wanwu: com avaliação automática, feedback, melhorias automáticas e injeção de especialização, podemos construir rapidamente harnesss específicos para cada setor, fazendo os grandes modelos realmente funcionarem nos negócios.

🧑‍🏫 Vice-presidente da Lenovo, Diretor de Investimentos da Lenovo Venture Capital, Sócio Sênior, Song Chunyu

Primeiro, contextos de milhões de tokens se tornam padrão na aplicação, impulsionando a explosão de agentes: o V4 leva a capacidade de contexto ultra longo para uma infraestrutura acessível.

Segundo, a competição setorial migra de “competição de modelos” para “competição de aplicações e dados”: quando modelos open source de ponta se aproximam do desempenho de modelos fechados, e os custos caem bastante, o modelo em si deixa de ser uma barreira escassa. O foco de investimento e competição será quem consegue usar esses modelos básicos para criar ciclos de dados e aplicações em setores de alto valor como saúde, finanças e direito, formando uma barreira de proteção comercial.

Terceiro, a cadeia de computação nacional enfrenta uma grande oportunidade de investimento: o sucesso do V4 prova que grandes modelos também podem brilhar com hardware nacional. Isso deve gerar uma demanda concreta por hardware doméstico, impulsionando investimentos em chips, servidores e nuvem.

Acreditamos que “o hardware nacional de IA de hoje é o que era o hardware estrangeiro no ano passado”, e essa tendência será forte na economia e no mercado de capitais.

Vamos concentrar recursos em projetos que possam se transformar rapidamente em produtos, tenham impacto setorial e possam criar barreiras de mercado, enquanto mantemos investimentos de longo prazo em infraestrutura e arquitetura de base.

🧑‍🏫 Investidor de fundo de moeda dupla

Meu desejo este ano é que o portfólio de modelos base (portfólio de investimentos) seja bem-sucedido na IPO.

Após o início do financiamento do DeepSeek, certamente ele atrairá uma grande quantidade de capital do mercado primário (especialmente de fundos estatais). Para as demais empresas de modelos base ainda sem IPO, rodar novas rodadas de financiamento não é sustentável.

Tenho uma visão mais pessimista: este ano, o financiamento na camada de aplicação será difícil.

A capacidade de modelos base ainda está evoluindo rapidamente, o que significa que muitas aplicações podem ser subvertidas por novos modelos. Como Coding e Workflow, que estavam em alta no ano passado, já não são mais temas de destaque no mercado primário.

🧑‍🏫 Empreendedor de Coding Agent, Chillin

Open source é uma coisa boa, e o DeepSeek V4 pode impulsionar ainda mais a troca de ideias e melhorias. Mas o tempo de maturação ainda é longo, o que é frustrante.

O V4 vai forçar os fabricantes de modelos a enfrentarem de forma mais direta os problemas de escala e dados, que são extremamente difíceis de resolver — dependem de recursos de capital.

Também reforça os limites das Scaling Laws. Melhorar desempenho por engenharia tem limites, e todos terão que buscar soluções mais fundamentais. O caminho é longo e árduo.

Bônus: Guia prático do DeepSeek V4

Para que serve?

Programação e aprendizado de código: se você é iniciante ou precisa criar scripts pessoais, o V4 é uma das melhores opções atuais. Consegue entender contextos, gerar códigos de alta qualidade e fazer debugging com alta confiabilidade.

Criação de conteúdo em chinês, japonês e coreano: seja escrevendo artigos, revisando textos ou traduzindo, o V4 tem desempenho excelente nesses idiomas.

Leitura e análise de textos longos: suporta até 1 milhão de tokens de contexto. Pode alimentar um livro inteiro, relatórios extensos ou grandes bases de código, e pedir resumos ou extração de informações-chave.

Para que não serve?

Busca e verificação de fatos objetivos: o V4 é um “modelo de raciocínio”, não uma “enciclopédia”. Sua memória de fatos (como detalhes históricos ou informações específicas) é fraca, e tende a alucinar. A versão V4-Flash, por exemplo, tem apenas 34,1% de acurácia em perguntas factuais. Não use como buscador ou para checar fatos — prefira outros AI com busca ou verifique manualmente.

Processamento de imagens ou formatação de documentos: o DeepSeek V4 é um modelo puramente textual, sem suporte a entrada ou saída de imagens (No Vision). Para análise de gráficos ou fotos, use modelos multimodais (como GPT-5.4 Mini).

Escrita criativa avançada em inglês: embora possa escrever em inglês, às vezes o texto fica artificial ou pouco natural. Para conteúdos altamente criativos, prefira outros modelos ocidentais.

Outras notas importantes:

Dê espaço para reflexão: se usar a versão Pro com cadeia de raciocínio explícito (CoT), incentive o modelo a “pensar mais passos” ou ativar o modo “Think Max”. Quanto mais profundo for o raciocínio, mais preciso tende a ser a resposta.

Tolerância a respostas prolixas: o V4 é relativamente “verbose” e mais lento. Se desejar respostas curtas, peça explicitamente: “Responda em uma frase” ou “Seja breve”.

Vamos trocar ideias!

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar