Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Pesquisadores da UC alertam que roteadores de IA de terceiros estão a roubar criptomoedas e chaves privadas
Serviços de roteamento de IA de terceiros expõem os utilizadores a falhas de segurança significativas que podem resultar no roubo de criptomoedas e credenciais de cloud.
Resumo
De acordo com um artigo publicado na quinta-feira por investigadores da Universidade da Califórnia, a cadeia de fornecimento para Modelos de Linguagem de Grande Escala (LLM) contém várias vulnerabilidades que permitem a injeção de código malicioso e extração de credenciais
Estes intermediários, que os desenvolvedores usam para gerir o acesso a fornecedores como Google ou OpenAI, atuam essencialmente como um “intermediário” que termina a encriptação segura
Porque têm acesso completo ao texto claro de cada mensagem enviada através deles, dados sensíveis como frases de semente ou chaves privadas podem ser interceptados por infraestruturas não verificadas.
Táticas de evasão e o risco “YOLO”
Os investigadores testaram 400 roteadores gratuitos e 28 pagos para medir a extensão destes riscos. Nove destes serviços injectaram ativamente código malicioso, enquanto 17 roteadores separados foram apanhados a aceder a credenciais da Amazon Web Services pertencentes à equipa
Durante o experimento, um roteador conseguiu esvaziar Ether de uma carteira isca após os investigadores fornecerem uma chave privada pré-financiada
Embora a equipa mantivesse os saldos baixos para garantir que a perda total permanecesse abaixo de 50 dólares, o resultado confirmou quão facilmente um intermediário comprometido pode desviar fundos.
“26 roteadores de LLM estão secretamente a injectar chamadas de ferramentas maliciosas e a roubar credenciais,” afirmou Chaofan Shou, coautor, na X.
Identificar um roteador malicioso é uma tarefa difícil para o utilizador comum. Os investigadores observaram que, porque estes serviços devem ler dados para os encaminhar, não há diferença visível entre o tratamento legítimo e o roubo ativo
O perigo aumenta quando os desenvolvedores ativam o “modo YOLO,” uma configuração em muitas estruturas de IA que permite a um agente executar comandos automaticamente sem confirmação humana
Isto permite a um atacante enviar instruções que o sistema do utilizador executará instantaneamente, muitas vezes sem o conhecimento do operador.
“A fronteira entre ‘gestão de credenciais’ e ‘roubo de credenciais’ é invisível para o cliente porque os roteadores já leem segredos em texto claro como parte do encaminhamento normal,” explicou o estudo.
Roteadores anteriormente confiáveis podem tornar-se perigosos se reutilizarem credenciais vazadas através de relés fracos. Para prevenir estes ataques, a equipa de investigação sugeriu que os desenvolvedores nunca devem permitir que chaves privadas ou frases sensíveis passem por uma sessão de agente de IA
Uma solução permanente exigiria que as empresas de IA usassem assinaturas criptográficas. Um sistema assim permitiria a um agente provar matematicamente que as instruções vieram do modelo real, e não de uma fonte de terceiros adulterada.
“Os roteadores de API de LLM estão numa fronteira de confiança crítica que o ecossistema atualmente trata como transporte transparente,” concluiu o artigo.