Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Ainda está comprando o centro de transferência de IA no Taobao? O denunciante do código fonte do Claude Code vazado: pelo menos dezenas foram envenenadas
Revelações recentes de uma pesquisa sobre o vazamento do código-fonte do Claude Code expõem riscos de segurança ocultos em centros de transferência de IA comerciais. Testes práticos mostram que alguns centros de transferência podem roubar credenciais, chaves privadas de carteiras ou inserir códigos maliciosos, tornando-se pontos de ataque na cadeia de suprimentos.
Revelador do vazamento do código-fonte do Claude Code, pesquisa expõe riscos de segurança em centros de transferência de IA
Recentemente foi publicada uma tese intitulada “Your Agent Is Mine” (Seu Agente é Meu), cujo um dos autores é Chaofan Shou, o whistleblower que revelou inicialmente o vazamento do código do Claude Code.
Este estudo foi pioneiro ao realizar uma análise sistemática de ameaças de segurança em roteadores de APIs de terceiros para grandes modelos de linguagem (LLMs), conhecidos como centros de transferência, revelando que esses centros podem se tornar pontos de ataque na cadeia de suprimentos.
O que é um centro de transferência de IA?
Como a chamada de LLM consome muitos tokens, gerando custos elevados de computação, centros de transferência de IA podem usar cache para repetir perguntas e contextos, ajudando os clientes a economizar significativamente nos custos.
Além disso, esses centros possuem funções de alocação automática de modelos, podendo trocar dinamicamente entre diferentes modelos com padrões de cobrança e desempenho variados, de acordo com a dificuldade da questão do usuário, e também podem trocar automaticamente para modelos de backup se o servidor principal falhar, garantindo estabilidade na conexão do serviço.
Centros de transferência são especialmente populares na China, pois o país não permite o uso direto de certos produtos de IA estrangeiros. Além disso, há uma demanda empresarial por localizações de cobrança, tornando esses centros uma ponte importante entre modelos upstream e desenvolvedores downstream. Plataformas como OpenRouter e SiliconFlow também pertencem a esse segmento de serviços.
No entanto, centros de transferência que parecem reduzir custos e facilitar a entrada tecnológica escondem riscos de segurança extremamente elevados.
Fonte: Pesquisa revela riscos de ataques na cadeia de suprimentos de centros de transferência de IA
Centros de transferência de IA possuem acesso completo, criando vulnerabilidades na cadeia de suprimentos
A pesquisa aponta que esses centros operam na camada de aplicação da arquitetura de rede, tendo acesso completo ao conteúdo em texto claro das cargas JSON durante a transmissão.
Como há falta de uma verificação de integridade de criptografia ponta a ponta entre o cliente e o fornecedor do modelo upstream, os centros de transferência podem facilmente visualizar e modificar chaves de API, prompts do sistema e parâmetros de chamadas de ferramentas na saída do modelo.
A equipe de pesquisa destacou que, já em março de 2026, o roteador de código aberto LiteLLM foi alvo de um ataque de confusão de dependências, permitindo que atacantes injetassem código malicioso na pipeline de processamento de requisições, evidenciando a vulnerabilidade dessa etapa.
Testes práticos mostram comportamento malicioso em dezenas de centros de transferência de IA
A equipe comprou 28 centros de transferência pagos em plataformas como Taobao, Xianyu e Shopify, além de coletar 400 centros gratuitos de comunidades públicas para testes aprofundados, e os resultados revelaram que 1 centro pago e 8 centros gratuitos injetaram códigos maliciosos ativamente.
Entre as amostras de centros gratuitos, 17 tentaram usar credenciais AWS criadas pelos pesquisadores, e 1 deles chegou a roubar criptomoedas da carteira Ethereum dos pesquisadores.
Dados adicionais indicam que, ao reutilizar credenciais vazadas de upstream ou direcionar o tráfego para nós com menor proteção, centros aparentemente normais podem ser envolvidos na mesma superfície de ataque.
Durante testes de infecção, a equipe descobriu que esses nós afetados processaram mais de 2,1 bilhões de tokens, expondo 99 credenciais reais em 440 sessões, sendo que 401 estavam operando de forma totalmente autônoma, permitindo que atacantes injetassem cargas maliciosas facilmente, sem necessidade de condições complexas de disparo.
Fonte: Pesquisa revela que mais de 400 centros de transferência foram testados, com dezenas apresentando comportamentos maliciosos
Quatro principais técnicas de ataque expostas
A pesquisa categoriza as ações maliciosas em centros de transferência em duas categorias principais e duas variantes de evasão adaptativa.
Para evitar detecção de segurança convencional, os atacantes evoluíram para técnicas de injeção de dependências, alterando nomes de pacotes em comandos de instalação de software, substituindo pacotes legítimos por versões maliciosas com nomes iguais ou confusos, publicados em repositórios públicos, criando backdoors persistentes na cadeia de suprimentos.
Outra técnica é a entrega condicional, onde o comportamento malicioso só é ativado sob certas condições, como quando o número de requisições ultrapassa 50 ou quando o sistema está operando de forma totalmente autônoma (modo YOLO), ajudando a evitar testes de segurança limitados.
Três medidas de defesa viáveis
Para combater ataques de envenenamento na cadeia de suprimentos de centros de transferência de IA, a pesquisa propõe três estratégias de defesa:
Apelo aos fornecedores upstream para implementação de mecanismos de verificação criptográfica
Embora as defesas no cliente possam reduzir riscos atualmente, elas não resolvem a vulnerabilidade fundamental na autenticação de origem. Desde que as modificações feitas pelos centros de transferência não acionem alertas de anomalia no cliente, atacantes podem facilmente alterar a semântica da execução do programa e causar danos.
Para garantir a segurança do ecossistema de agentes de IA de forma definitiva, é necessário que os fornecedores upstream adotem mecanismos de resposta com verificação criptográfica. Somente vinculando de forma rigorosa os resultados do modelo às instruções finais executadas pelo cliente, por meio de criptografia, será possível assegurar a integridade ponta a ponta dos dados e prevenir integralmente os riscos de cadeia de suprimentos decorrentes de alterações maliciosas nos centros de transferência.
Leituras adicionais:
OpenAI usa o Mixpanel e ocorreu vazamento de dados de usuários! Cuidado com phishing por e-mail
Um erro de copiar e colar fez 50 milhões de dólares evaporarem! Como prevenir fraudes com endereços criptográficos adulterados