"Criar lagostas", a indústria bancária recusa "acompanhar a tendência"?

robot
Geração de resumo em curso

Pergunta: Como o futuro dos agentes de inteligência artificial nos bancos pode equilibrar inovação e segurança?

Recentemente, o agente de IA de código aberto OpenClaw tem atraído ampla atenção no setor. Nomeado por seu ícone de lagosta vermelha, a implantação e uso local são chamados de “criar lagostas”.

O aspecto mais atrativo de “criar lagostas” é sua capacidade de executar tarefas complexas de forma autônoma, oferecendo novas possibilidades para aumentar a eficiência do trabalho. Segundo informações, o OpenClaw pode integrar chamadas a softwares de comunicação e grandes modelos de IA, realizando autonomamente tarefas como gerenciamento de arquivos, envio e recebimento de e-mails, processamento de dados em computadores locais, sendo bastante popular devido à sua flexibilidade de implantação e autonomia.

Atualmente, qual é a postura do setor bancário em relação ao “criar lagostas”? No futuro, haverá uma implantação e promoção em larga escala?

Entrevistado pelo Financial Times, um funcionário de um banco afirmou que, atualmente, nenhuma instituição financeira implantou o OpenClaw em toda a sua estrutura. “Em cenários fora do setor bancário, experimentar ‘criar lagostas’ no cotidiano é possível, mas se for conectado à rede interna do banco, não é permitido”, disse.

Sabe-se que algumas instituições financeiras fizeram alertas internos de risco, proibindo funcionários de criar ou implantar o OpenClaw durante suas atividades. Outros bancos realizaram autoavaliações de risco internas, estabelecendo limites claros para o uso.

De modo geral, o setor bancário adota uma postura cautelosa quanto ao uso do OpenClaw, proibindo sua implantação em cenários de negócios essenciais, mantendo o compromisso com a segurança e conformidade dos dados financeiros.

“O OpenClaw possui permissões elevadas por padrão e configurações de segurança fracas, sendo facilmente explorado por atacantes para roubar dados sensíveis ou manipular transações ilegalmente. Isso entra em conflito com os altos requisitos de segurança e conformidade dos bancos”, afirmou Tian Lihui, professor de Finanças na Universidade de Nankai, em entrevista ao Financial Times. A postura cautelosa do setor reflete a exigência máxima de segurança na indústria financeira.

Os riscos de segurança associados ao “criar lagostas” também têm recebido atenção especial das autoridades relevantes.

Em 11 de março, a plataforma de compartilhamento de informações sobre ameaças e vulnerabilidades de cibersegurança do Ministério da Indústria e Tecnologia da Informação publicou a recomendação “Seis coisas a fazer e seis coisas a evitar” para prevenir riscos de segurança do agente de IA OpenClaw (lagosta), destacando que o uso dessa IA em cenários de transações financeiras pode causar erros de operação ou até o sequestro de contas. A Associação de Finanças da Internet da China também emitiu alertas de risco, apontando os riscos de segurança na aplicação no setor financeiro.

Luo Feipeng, pesquisador do Banco Postal da China, afirmou que a ambiguidade na definição de conformidade e responsabilidade aumenta as preocupações do setor bancário. “Atualmente, o setor financeiro ainda não possui normas padronizadas para o uso de agentes de IA, e a autonomia do OpenClaw dificulta delimitar as responsabilidades entre máquina e humanos.”

Na prática, a questão dos limites do uso de IA, exemplificada pelo caso do “criar lagostas”, merece atenção e discussão no setor financeiro. A postura cautelosa dos bancos não significa uma rejeição à tecnologia, mas uma análise específica de acordo com as características do setor, buscando equilibrar desenvolvimento e segurança, e avançando por meio de exploração responsável.

Em 11 de março, o Banco Popular da China, durante sua reunião de trabalho de tecnologia para 2026, destacou a necessidade de aprofundar a integração entre setor e tecnologia, promovendo de forma segura, estável e ordenada a aplicação de inteligência artificial no setor financeiro, impulsionando o desenvolvimento digital e inteligente.

Especialistas do setor afirmam que a exploração do uso de agentes de IA pelos bancos nunca parou. Atualmente, já existem aplicações em cenários de baixo risco, como suporte ao atendimento ao cliente, busca de documentos de políticas e geração de atas de reuniões.

Tian Lihui acredita que, no futuro, os bancos devem explorar com cautela o uso de agentes de IA. “Isso requer validação em pequena escala. É necessário realizar profundas modificações nos modelos e implantá-los de forma privada, estabelecendo um sistema de governança de IA completo, garantindo a segurança dos dados desde a origem. Quando a tecnologia estiver madura e os padrões do setor estiverem claros, então será possível avaliar cuidadosamente a expansão para os negócios principais.”

Luo Feipeng sugere que os bancos adotem uma abordagem prudente, começando com pilotos em cenários de baixo risco, verificando os resultados antes de uma expansão gradual; além de estabelecer um sistema de segurança de dados de ponta a ponta, usando técnicas de anonimização e criptografia, e definindo claramente os limites de uso dos dados.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar