Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Arranque dos futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Centro de Património VIP
Aumento de património premium
Gestão de património privado
Alocação de ativos premium
Fundo Quant
Estratégias quant de topo
Staking
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos RWA
Críticos zombam das alegações da Anthropic de que os laboratórios de IA chineses estão a roubar os seus dados
Críticos Ridicularizam Alegações da Anthropic de que Laboratórios de IA Chineses Estão a Roubar os Seus Dados
Jason Nelson
Ter, 24 de fevereiro de 2026 às 07:40 GMT+9 3 min de leitura
Neste artigo:
ANTH.PVT
A Anthropic acusou três laboratórios de IA chineses de extrair milhões de respostas do seu chatbot Claude para treinar sistemas concorrentes, uma ação que a empresa afirma violar os seus termos de serviço e enfraquecer os controles de exportação dos EUA.
Em um artigo publicado na segunda-feira, a Anthropic afirmou ter identificado “campanhas em escala industrial” por parte dos desenvolvedores de IA DeepSeek, Moonshot e MiniMax para extrair as capacidades do Claude através de destilação de modelos. A empresa alegou que os laboratórios geraram mais de 16 milhões de trocas usando aproximadamente 24.000 contas fraudulentas.
O anúncio da Anthropic gerou ceticismo e zombarias no X, onde os críticos questionaram a sua postura, dado como os principais modelos de IA, incluindo o Claude, são treinados, refletindo o debate mais amplo sobre propriedade intelectual, direitos autorais e uso justo.
“Vocês treinaram na internet aberta e depois chamam de ‘ataques de destilação’ quando outros aprendem com vocês,” escreveu Tory Green, cofundador da empresa de infraestrutura de IA IO.Net. “Laboratórios que gostam de pregar ‘pesquisa aberta’ de repente choramingam sobre acesso aberto.”
“Ohhh não, minha IP privada, como ousam usar isso para treinar um modelo de IA, só a Anthropic tem o direito de usar a IP de todos, nãoooo, isso não pode ficar assim!” escreveu outro usuário no X.
A destilação é um método de treinamento de IA no qual um modelo menor aprende a partir das saídas de um maior.
Em contextos de cibersegurança, também pode descrever ataques de extração de modelos, onde um atacante usa acesso legítimo para consultar sistematicamente um sistema e usar as respostas para treinar um modelo concorrente.
“Estas campanhas estão a crescer em intensidade e sofisticação,” escreveu a Anthropic na segunda-feira. “A janela para agir é estreita, e a ameaça vai além de qualquer empresa ou região. Enfrentá-la exigirá uma ação rápida e coordenada entre os atores da indústria, formuladores de políticas e a comunidade global de IA.”
“Destilação pode ser legítima: laboratórios de IA usam-na para criar modelos menores e mais baratos para seus clientes,” escreveu a Anthropic em uma publicação separada no X. “Mas laboratórios estrangeiros que destilam ilegalmente modelos americanos podem remover salvaguardas, alimentando capacidades de modelos em seus próprios sistemas militares, de inteligência e de vigilância.”
Em junho, o Reddit processou a Anthropic, acusando-a de raspar mais de 100.000 posts e comentários e usar esses dados para ajustar o Claude.
Reddit Processa Anthropic por Suposto Raspa de Dados Não Autorizada
O caso junta-se a processos contra a OpenAI, Meta e Google por raspagem em larga escala de conteúdo online sem permissão.
“[Há] a face pública que tenta se inserir na consciência do consumidor com alegações de retidão e respeito pelos limites e pela lei, e a face privada que ignora quaisquer regras que interfiram em seus esforços para encher os seus bolsos,” afirmou o processo do Reddit.
A Anthropic afirmou estar a expandir a deteção, a reforçar a verificação de contas, a partilhar informações com outros laboratórios e autoridades, e a acrescentar salvaguardas para limitar futuras tentativas de destilação.
“Mas nenhuma empresa pode resolver isso sozinha,” escreveu a Anthropic. “Como mencionámos acima, ataques de destilação em escala requerem uma resposta coordenada entre a indústria de IA, provedores de nuvem e formuladores de políticas.”
Termos e Política de Privacidade
Painel de Privacidade
Mais Informações