Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
"Criar lagostas", a indústria bancária recusa "acompanhar a tendência"?
Pergunta: Como o futuro dos agentes de inteligência artificial nos bancos pode equilibrar inovação e segurança?
Recentemente, o agente de IA de código aberto OpenClaw tem atraído ampla atenção no setor. Nomeado por seu ícone de lagosta vermelha, a implantação e uso local são chamados de “criar lagostas”.
O aspecto mais atrativo de “criar lagostas” é sua capacidade de executar tarefas complexas de forma autônoma, oferecendo novas possibilidades para aumentar a eficiência do trabalho. Segundo informações, o OpenClaw pode integrar chamadas a softwares de comunicação e grandes modelos de IA, realizando autonomamente tarefas como gerenciamento de arquivos, envio e recebimento de e-mails, processamento de dados em computadores locais, sendo bastante popular devido à sua flexibilidade de implantação e autonomia.
Atualmente, qual é a postura do setor bancário em relação ao “criar lagostas”? No futuro, haverá uma implantação e promoção em larga escala?
Entrevistado pelo Financial Times, um funcionário de um banco afirmou que, atualmente, nenhuma instituição financeira implantou o OpenClaw em toda a sua estrutura. “Em cenários fora do setor bancário, experimentar ‘criar lagostas’ no cotidiano é possível, mas se for conectado à rede interna do banco, não é permitido”, disse.
Sabe-se que algumas instituições financeiras fizeram alertas internos de risco, proibindo funcionários de criar ou implantar o OpenClaw durante suas atividades. Outros bancos realizaram autoavaliações de risco internas, estabelecendo limites claros para o uso.
De modo geral, o setor bancário adota uma postura cautelosa quanto ao uso do OpenClaw, proibindo sua implantação em cenários de negócios essenciais, mantendo o compromisso com a segurança e conformidade dos dados financeiros.
“O OpenClaw possui permissões elevadas por padrão e configurações de segurança fracas, sendo facilmente explorado por atacantes para roubar dados sensíveis ou manipular transações ilegalmente. Isso entra em conflito com os altos requisitos de segurança e conformidade dos bancos”, afirmou Tian Lihui, professor de Finanças na Universidade de Nankai, em entrevista ao Financial Times. A postura cautelosa do setor reflete a exigência máxima de segurança na indústria financeira.
Os riscos de segurança associados ao “criar lagostas” também têm recebido atenção especial das autoridades relevantes.
Em 11 de março, a plataforma de compartilhamento de informações sobre ameaças e vulnerabilidades de cibersegurança do Ministério da Indústria e Tecnologia da Informação publicou a recomendação “Seis coisas a fazer e seis coisas a evitar” para prevenir riscos de segurança do agente de IA OpenClaw (lagosta), destacando que o uso dessa IA em cenários de transações financeiras pode causar erros de operação ou até o sequestro de contas. A Associação de Finanças da Internet da China também emitiu alertas de risco, apontando os riscos de segurança na aplicação no setor financeiro.
Luo Feipeng, pesquisador do Banco Postal da China, afirmou que a ambiguidade na definição de conformidade e responsabilidade aumenta as preocupações do setor bancário. “Atualmente, o setor financeiro ainda não possui normas padronizadas para o uso de agentes de IA, e a autonomia do OpenClaw dificulta delimitar as responsabilidades entre máquina e humanos.”
Na prática, a questão dos limites do uso de IA, exemplificada pelo caso do “criar lagostas”, merece atenção e discussão no setor financeiro. A postura cautelosa dos bancos não significa uma rejeição à tecnologia, mas uma análise específica de acordo com as características do setor, buscando equilibrar desenvolvimento e segurança, e avançando por meio de exploração responsável.
Em 11 de março, o Banco Popular da China, durante sua reunião de trabalho de tecnologia para 2026, destacou a necessidade de aprofundar a integração entre setor e tecnologia, promovendo de forma segura, estável e ordenada a aplicação de inteligência artificial no setor financeiro, impulsionando o desenvolvimento digital e inteligente.
Especialistas do setor afirmam que a exploração do uso de agentes de IA pelos bancos nunca parou. Atualmente, já existem aplicações em cenários de baixo risco, como suporte ao atendimento ao cliente, busca de documentos de políticas e geração de atas de reuniões.
Tian Lihui acredita que, no futuro, os bancos devem explorar com cautela o uso de agentes de IA. “Isso requer validação em pequena escala. É necessário realizar profundas modificações nos modelos e implantá-los de forma privada, estabelecendo um sistema de governança de IA completo, garantindo a segurança dos dados desde a origem. Quando a tecnologia estiver madura e os padrões do setor estiverem claros, então será possível avaliar cuidadosamente a expansão para os negócios principais.”
Luo Feipeng sugere que os bancos adotem uma abordagem prudente, começando com pilotos em cenários de baixo risco, verificando os resultados antes de uma expansão gradual; além de estabelecer um sistema de segurança de dados de ponta a ponta, usando técnicas de anonimização e criptografia, e definindo claramente os limites de uso dos dados.