Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 30 modelos de IA, com 0% de taxas adicionais
Anthropic testou o marketplace para comércio entre agentes de IA - ForkLog: criptomoedas, IA, singularidade, futuro
A empresa Anthropic criou uma plataforma de teste, onde agentes de IA atuam como compradores e vendedores. O experimento recebeu o nome de Project Deal.
No projeto participaram 69 funcionários da empresa. Cada um recebeu um orçamento $100 em forma de cartões-presente
Antes do início, Claude realizou entrevistas com os participantes: descobriu quais objetos pessoais eles estavam dispostos a vender, o que gostariam de comprar, a que preço e qual estilo de negociação seus agentes deveriam adotar.
Depois, com base nas respostas, criou-se um prompt sistemático personalizado para cada um. O mercado foi lançado no Slack. Lá, os agentes publicavam anúncios, faziam propostas por bens de outros, negociavam e fechavam negócios sem intervenção humana.
Após o término do experimento, os funcionários trocaram objetos reais, que foram aprovados por seus «representantes de IA».
A Anthropic destacou que, no geral, os participantes ficaram satisfeitos com os resultados do experimento. Alguns manifestaram disposição a pagar por um serviço semelhante no futuro.
Quatro versões do mercado
A Anthropic lançou quatro versões independentes do marketplace. Uma era «real» — exatamente com base nela os funcionários trocavam bens. As demais eram usadas para fins de pesquisa. Essa informação não foi divulgada.
Em duas versões, todos os participantes eram representados pelo Claude Opus 4.5 — na época, o modelo mais avançado da Anthropic. Nas outras duas, os participantes eram aleatoriamente designados ao Opus 4.5 ou a um Claude Haiku 4.5 de menor potência.
A qualidade do modelo influenciava o resultado das negociações. Usuários com Opus, em média, fechavam cerca de duas negociações a mais do que os com Haiku.
Na venda de bens iguais, o Opus também obtinha preços mais altos. Em média, a diferença era de $3,64.
Os prompts quase não influenciaram o resultado
Os pesquisadores também verificaram se as instruções iniciais dadas pelos humanos influenciavam o comportamento dos agentes. Parte dos participantes pediu que Claude agisse de forma amigável, outra parte, de forma mais agressiva na negociação.
Segundo a Anthropic, instruções grosseiras não tiveram impacto estatisticamente significativo na probabilidade de venda, no preço final ou na capacidade de comprar mais barato.
A equipe do projeto esclareceu que isso não se deve necessariamente ao fraco seguimento das instruções: Claude realmente podia reproduzir o estilo de comunicação solicitado, mas isso não conferia vantagem comercial perceptível.
Resultados imprevistos
Na Anthropic, destacaram alguns episódios imprevisíveis. Antes do lançamento, os agentes receberam um volume limitado de dados: entrevistas com os participantes duraram menos de 10 minutos, e após o início, as pessoas não podiam mais intervir nas negociações.
Em um caso, um funcionário comprou por meio de um assistente uma prancha de snowboard igual à que já possuía. Segundo especialistas, a pessoa não faria essa compra por conta própria, mas o agente conseguiu identificar exatamente as preferências do participante.
Outro funcionário pediu ao bot que comprasse um «presente para si mesmo». A negociação ocorreu na versão real do experimento. No final, trouxeram ao escritório um pacote com bolas de pingue-pongue, deixado pela Anthropic «em nome de Claude».
Alguns agentes negociaram não por bens, mas por experiências. Um deles ofereceu um dia grátis com o cachorro de uma funcionária. Após discussão com outro assistente, as partes concordaram com um «encontro com o cachorro», que os funcionários posteriormente realizaram.
Questões de confiabilidade
O fundador de uma empresa agrícola não identificada informou no Reddit que, numa manhã, 110 funcionários receberam simultaneamente uma notificação de suspensão de acesso ao Claude, sem aviso prévio.
Segundo ele, o e-mail parecia uma bloqueio individual e continha um link para um formulário de apelação, o que fez a equipe não perceber imediatamente que a restrição afetava toda a organização.
O empresário destacou que não conseguiu restabelecer o acesso rapidamente. Após 36 horas de pedidos, a Anthropic não forneceu explicações.
Ao mesmo tempo, a conta API da empresa continuava ativa e debitando fundos. Os administradores corporativos não conseguiam acessar o painel de controle para verificar pagamentos e uso do serviço.
O fundador também observou que o bloqueio de toda a organização poderia ter sido causado por ações de um único usuário. No Claude, não há restrições específicas ao nível do espaço de trabalho, mecanismos de isolamento local de violações ou prioridades administrativas para manter o acesso ao restante da equipe.
Na sua opinião, esse modelo de moderação põe em dúvida a possibilidade de usar o Claude como infraestrutura crítica para operações comerciais diárias.
Outras empresas também enfrentam esse problema. Um usuário compartilhou um link para um serviço onde, até o momento, há 53 casos semelhantes registrados.
Lembrete: em 24 de abril, a Google anunciou um investimento de $40 bilhões na Anthropic.