Anthropic acusa laboratórios de IA chineses de minerar Claude enquanto os EUA debatem exportações de chips de IA

A Anthropic acusa laboratórios chineses de IA de minerar Claude enquanto os EUA debatem exportações de chips de IA

Rebecca Bellan

Ter, 24 de fevereiro de 2026 às 4:57 AM GMT+9 4 min de leitura

A logo da Deepseek é exibida numa tela de telemóvel com a bandeira da China e código binário nesta ilustração em Bruxelas, Bélgica, a 22 de fevereiro de 2026. (Foto de Jonathan Raa/NurPhoto via Getty Images) | Créditos da imagem: Getty Images

A Anthropic acusa três empresas chinesas de IA de criar mais de 24.000 contas falsas com o seu modelo Claude para melhorar os seus próprios modelos.

Os laboratórios — DeepSeek, Moonshot AI e MiniMax — alegadamente geraram mais de 16 milhões de trocas com Claude através dessas contas, usando uma técnica chamada “destilação”. A Anthropic afirmou que os laboratórios “focaram nas capacidades mais diferenciadas de Claude: raciocínio agente, uso de ferramentas e codificação.”

As acusações surgem num contexto de debates sobre a rigorosa aplicação dos controlos de exportação de chips de IA avançados, uma política destinada a limitar o desenvolvimento de IA na China.

A destilação é um método de treino comum que os laboratórios de IA usam nos seus próprios modelos para criar versões menores e mais baratas, mas os concorrentes podem usá-la para copiar essencialmente o trabalho de outros laboratórios. A OpenAI enviou um memorando aos legisladores da Câmara no início deste mês, acusando a DeepSeek de usar destilação para imitar os seus produtos.

A DeepSeek ganhou destaque há um ano, quando lançou o seu modelo de raciocínio de código aberto R1, que quase igualou o desempenho dos laboratórios americanos de fronteira a uma fração do custo. A DeepSeek espera lançar em breve o DeepSeek V4, o seu modelo mais recente, que, segundo relatos, consegue superar o Claude da Anthropic e o ChatGPT da OpenAI em codificação.

A escala de cada ataque variou em âmbito. A Anthropic rastreou mais de 150.000 trocas da DeepSeek, que pareciam destinadas a melhorar a lógica fundamental e o alinhamento, especificamente em torno de alternativas seguras de censura para consultas sensíveis à política.

A Moonshot AI realizou mais de 3,4 milhões de trocas focadas em raciocínio agente, uso de ferramentas, codificação, análise de dados, desenvolvimento de agentes de computador e visão computacional. No mês passado, a empresa lançou um novo modelo de código aberto, Kimi K2.5, e um agente de codificação.

A MiniMax realizou 13 milhões de trocas direcionadas a codificação de agentes e uso de ferramentas e orquestração. A Anthropic afirmou que conseguiu observar a MiniMax em ação, enquanto redirecionava quase metade do seu tráfego para extrair capacidades do modelo Claude mais recente, quando foi lançado.

A Anthropic afirma que continuará a investir em defesas que tornem os ataques de destilação mais difíceis de executar e mais fáceis de identificar, mas apela a “uma resposta coordenada em toda a indústria de IA, fornecedores de nuvem e formuladores de políticas.”

Os ataques de destilação ocorrem num momento em que as exportações de chips para a China pelos EUA ainda são fortemente debatidas. No mês passado, a administração Trump autorizou formalmente empresas americanas como a Nvidia a exportar chips de IA avançados (como o H200) para a China. Os críticos argumentam que esta flexibilização dos controlos de exportação aumenta a capacidade de computação de IA na China, num momento crítico na corrida global pelo domínio da IA.

A Anthropic afirma que a escala de extração realizada pela DeepSeek, MiniMax e Moonshot “exige acesso a chips avançados.”

“Os ataques de destilação reforçam, portanto, a justificativa para os controlos de exportação: o acesso restrito a chips limita tanto o treino direto de modelos quanto a escala de destilação ilícita,” segundo o blog da Anthropic.

Dmitri Alperovitch, presidente do think-tank Silverado Policy Accelerator e cofundador da CrowdStrike, disse à TechCrunch que não está surpreendido com esses ataques.

“Já há algum tempo que é claro que parte do progresso rápido dos modelos de IA chineses se deve ao roubo via destilação de modelos de fronteira dos EUA. Agora sabemos disso com certeza,” afirmou Alperovitch. “Isto deve dar-nos ainda mais razões convincentes para recusar vender qualquer chip de IA a essas [empresas], o que só lhes daria vantagem adicional.”

A Anthropic também afirmou que a destilação não ameaça apenas minar o domínio da IA americana, mas também pode criar riscos de segurança nacional.

“A Anthropic e outras empresas dos EUA constroem sistemas que impedem atores estatais e não estatais de usar IA para, por exemplo, desenvolver armas biológicas ou realizar atividades cibercriminosa maliciosas,” lê-se no post do blog da Anthropic. “Modelos construídos através de destilação ilícita provavelmente não mantêm essas salvaguardas, o que significa que capacidades perigosas podem proliferar com muitas proteções completamente removidas.”

A Anthropic apontou para governos autoritários que utilizam IA de fronteira para atividades como “operações ciber ofensivas, campanhas de desinformação e vigilância em massa,” um risco que se multiplica se esses modelos forem de código aberto.

A TechCrunch entrou em contacto com a DeepSeek, MiniMax e Moonshot para comentários.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)