O setor financeiro restringe o "criar lobsters"

“Você criou camarões?” Recentemente, toda a internet está obcecada com o “lagostim” OpenClaw. Desde melhorias de eficiência pessoal até automação de processos empresariais, este agente de IA de código aberto quase varreu todas as aplicações tecnológicas e até cenários sociais, mas no setor financeiro nem tanto.

Em 10 de março, devido ao “fervor de criar camarões” e à questão de se há intenção de implementar o OpenClaw, jornalistas do Beijing Business entrevistaram vários bancos, empresas de consumo financeiro e instituições de pagamento. A maioria respondeu que “está muito popular, precisa de tempo para consolidar e observar”, e alguns afirmaram diretamente que o OpenClaw não é adequado para finanças, especialmente por questões de segurança de dados. Especialistas do setor acreditam que, neste “fervor de criar camarões”, bancos digitais e empresas de consumo financeiro não seguiram a tendência, e as equipes técnicas das instituições de pagamento permanecem inertes, devido às considerações importantes de segurança de fundos, dados e informações.

Calma coletiva

O “fervor de criar camarões” no setor financeiro, no entanto, ficou em silêncio. “Devido às rigorosas exigências de confidencialidade na indústria financeira, essa aplicação de IA pode apresentar riscos à segurança de dados e informações”, afirmou um profissional de uma empresa de consumo financeiro.

“Tem algum valor, mas no núcleo do negócio de consumo financeiro há riscos múltiplos. Por exemplo, em conformidade, os agentes de código aberto dificilmente atendem às exigências regulatórias de gerenciamento de risco; além disso, na segurança, o agente de código aberto pode causar vazamento de informações”, comentou outro profissional do setor.

Resumindo, a principal razão é a forte regulação e as exigências de alto risco do setor financeiro.

Para as empresas de consumo financeiro, se usarem IA para automatizar processos de concessão de crédito, aprovação de gerenciamento de risco e liberação de empréstimos, a eficiência pode dobrar. Mas, se ocorrerem empréstimos excessivos, erros na concessão ou vazamento de informações, quem será responsável? Quem assumirá o risco? Este é o maior perigo, a conflito natural entre autonomia tecnológica e conformidade de segurança financeira.

“Isso é uma zona de perigo”, disseram muitos profissionais de consumo financeiro, que não querem arriscar suas operações de dados e segurança apenas por experimentar uma nova tecnologia. “Mas o OpenClaw é muito popular, parece até excessivamente, ainda precisamos consolidar seu valor e observar com cautela.” Outros afirmam que, no curto prazo, o setor financeiro continuará sendo cauteloso, embora não descarte uma infiltração por camadas.

A ansiedade das instituições de pagamento é ainda mais direta. Cada transação envolve segurança de fundos, sem espaço para “caixa preta” de algoritmos. Yu Chen, cofundador da Yeepay, afirmou ao Beijing Business que a febre de agentes de IA de código aberto, impulsionada pelo OpenClaw, representa uma mudança do diálogo de IA para execução autônoma. Embora essa direção seja valiosa, a empresa mantém uma postura de observação cautelosa, pois a execução autônoma, permissões abertas e limites de conformidade entram em conflito natural. A segurança e o controle devem vir em primeiro lugar no setor financeiro.

No setor bancário, um funcionário de linha de frente comentou: “Atualmente, poucos usam o OpenClaw na nossa instituição. Para nós, o OpenClaw é como um software de IA com privilégios elevados, capaz de autorizar operações no computador e executar comandos diretamente. Nós, da linha de frente, não usamos esse tipo de função; provavelmente, apenas a equipe técnica realiza testes limitados.”

Outro responsável de departamento bancário afirmou: “Produtos de código aberto assim, durante o uso, precisam controlar remotamente o PC do terminal via dispositivos móveis. Mesmo que aleguem isolamento de informações, os bancos permanecem extremamente cautelosos, e geralmente não usam diretamente.”

Baixa compatibilidade

Do ponto de vista do setor financeiro, Yu Chen acredita que o maior valor do agente de IA de código aberto está na automação de processos, aumento de eficiência, libertando pessoas do trabalho repetitivo, reduzindo custos e aumentando a produtividade. Mas há riscos associados, como decisões autônomas de agentes que podem ser difíceis de explicar ou controlar, além de vulnerabilidades de segurança de dados e operações fora de autoridade, que podem infringir as regras de conformidade do setor financeiro.

“Para uso pessoal ou em tarefas administrativas, tudo bem, mas aplicar na operação de negócios é complicado, por exemplo, riscos de segurança de dados, fundos, etc.”, afirmou outro profissional de uma empresa de pagamento. Para ele, o controle de risco já é bastante robusto, e tentar usar IA de código aberto de forma precipitada pode esconder riscos, como interrupções de transações ou erros na liquidação de fundos, com consequências imprevisíveis.

Um representante de um banco regional explicou: “Na construção tecnológica do banco, a prioridade sempre é segurança e conformidade. Atualmente, as preocupações principais com projetos de código aberto são duas: primeiro, riscos de segurança de dados, pois o código aberto tem muitas vulnerabilidades e ‘portas dos fundos’ difíceis de detectar, podendo levar a vazamentos; segundo, riscos de controle operacional, pois, mesmo que os fornecedores afirmem isolamento de informações, qualquer controle entre dispositivos ou redes pode ser sequestrado, capturado por tela, gravação ou operação fora de autoridade, o que viola as linhas vermelhas de segurança financeira. Portanto, os bancos não usam esses sistemas de forma imprudente.”

Especialistas do setor acreditam que, como setor altamente regulado e de alto risco, a cautela é racional e necessária. Shen Xiayi, vice-diretor do Instituto de Pesquisa de Valores Mobiliários da Fed, explica que a particularidade do setor financeiro está na segurança de fundos, privacidade do cliente e risco sistêmico. Qualquer inovação tecnológica deve priorizar o controle de riscos, não podendo adotar o ritmo de “iterações rápidas e tentativa e erro” típico da internet.

Na visão de Shen, atualmente, a compatibilidade do OpenClaw com o setor financeiro ainda é baixa. Sua capacidade de automação ponta a ponta entra em conflito com as exigências regulatórias, por causa de responsabilidades e limites pouco claros, além da explicabilidade dos algoritmos. Além disso, a alta exigência de segurança de dados e estabilidade operacional impede que o OpenClaw seja utilizado em áreas críticas como concessão de crédito, gerenciamento de risco ou liquidação de fundos. No momento, só pode ser testado em cenários não essenciais, e sua adaptação completa ainda requer melhorias a longo prazo.

Não é rejeição

É importante notar que a “calma” do setor financeiro não significa rejeição à IA, mas sim uma resistência à adoção cega. Segundo um profissional de um banco, a onda de agentes de IA de código aberto, como o OpenClaw, representa uma transformação paradigmática na aplicação de IA, uma democratização. Os grandes modelos já ultrapassaram um ponto de inflexão, e o mercado precisa dessa onda para que os usuários percebam que IA não é mais apenas uma ferramenta auxiliar ou consultora, mas um “estagiário” capaz de executar tarefas concretas.

Esse profissional acredita que essa nova abordagem de IA é uma tendência inevitável para o futuro. Portanto, para o setor financeiro, a questão não é “não usar” ou “não ser adequado agora”, mas sim como usar com cautela, passo a passo. A moderação das instituições financeiras reflete mais o respeito por conformidade e riscos do que uma rejeição à tecnologia.

A curto prazo, o maior valor do agente de IA de código aberto está em melhorar a eficiência dos serviços financeiros, reduzir custos operacionais e tornar os serviços mais acessíveis. A longo prazo, esses agentes com capacidade de execução autônoma podem criar novos modelos de negócio, gerar valor incremental e abrir novos mercados.

Por outro lado, os riscos também não podem ser ignorados. Segundo o mesmo profissional, há preocupações com conformidade, segurança e investimentos. A maior ameaça está na aplicação prática, pois a popularização da inteligência artificial reduz a barreira para execução de muitas tarefas, o que pode ser tanto positivo quanto perigoso. É fundamental fortalecer a consciência de risco e preparar-se para possíveis incidentes.

De fato, várias instituições já estão explorando “customizações” na aplicação de IA. Um banco, por exemplo, está investindo em gerenciamento de risco pós-concessão, atendimento ao cliente e telemarketing. Também há esforços em aprovação de crédito, operações diárias e conformidade. “Para que a IA de código aberto realmente entre nos cenários centrais do setor financeiro, é preciso resolver primeiro as questões de segurança e conformidade”, afirmou um especialista. No momento, a atribuição de responsabilidades ainda deve ser liderada por pessoas, garantindo controle rigoroso em áreas críticas.

A empresa Zhaolian Consumer Finance também revelou que já desenvolveu oito agentes inteligentes principais — incluindo proteção ao consumidor, conformidade, gestão de ativos, operações, risco, decisão, pesquisa e desenvolvimento, medicina tradicional — além de vários agentes de escritório, para melhorar a eficiência dos negócios.

No setor de pagamento, o responsável da LianLian Digital mencionou que, nos últimos anos, a empresa tem promovido a integração de IA em gerenciamento de risco, operações e atendimento ao cliente, além de usar modelos de IA de grande escala. Sua plataforma própria oferece serviços integrados de pagamento, transferência de fundos, distribuição global de fundos, processamento inteligente de câmbio e gerenciamento de risco inteligente.

Fusão gradual

Após a febre, especialistas acreditam que o setor financeiro não verá uma “onda de implementação do OpenClaw”, mas sim uma fase de exploração cautelosa e integração gradual. “Na verdade, o setor financeiro foi um dos primeiros a aplicar IA, pois possui uma grande quantidade de dados de transações”, explicou Yu Chen. As aplicações de IA na área financeira se dividem em duas categorias: uma, de base, que usa IA como uma barreira de proteção, como na luta contra lavagem de dinheiro; outra, de ponta, que traz mais negócios e oportunidades.

Yu Chen acredita que o futuro da IA financeira é promissor, com potencial para melhorar atendimento ao cliente, experiência do usuário, realizar marketing cruzado, explorar novos leads e automatizar conformidade e gerenciamento de risco, sempre focando em valor para negócios e usuários.

“Hoje, bancos, empresas de consumo financeiro e instituições de pagamento estão adotando uma abordagem de transformação assistida, sem buscar automação total de processos, o que é uma estratégia mais realista e compatível com a regulação e o cenário tecnológico”, avaliou Wang Pengbo, analista-chefe da Broadcom. Para ele, se agentes de IA de código aberto entrarem em cenários centrais, precisarão resolver explicabilidade, rastreabilidade, evitar caixas pretas, atender às exigências de segurança e conformidade, além de definir claramente responsabilidades e limites, garantindo a proteção de dados sensíveis e mantendo a intervenção humana para evitar riscos irreversíveis.

Implementação em pequenos cenários

Com base na tendência do setor e nas exigências regulatórias, muitos profissionais de bancos afirmam que, nos próximos cinco a dez anos, o uso de ferramentas de código aberto só será possível se a proteção de informações pessoais for rigorosa, a tecnologia for totalmente controlável e os riscos gerenciáveis. As aplicações devem focar em cenários não sensíveis, como marketing sem dados confidenciais, suporte auxiliar sem transações financeiras ou dados sensíveis, evitando riscos às operações principais.

“Essa abordagem cautelosa não é conservadora, mas uma resposta racional às particularidades do risco financeiro. As instituições podem acumular experiência em projetos piloto, validar o valor em cenários controlados e expandir gradualmente”, afirmou Du Tongtong, pesquisadora do Instituto de Pesquisa de Valores Mobiliários da Fed. Ela acrescenta que as instituições devem seguir uma inovação prudente, priorizando testes em cenários não essenciais, para depois explorar a adaptação aos cenários principais.

“Setor financeiro continuará sendo cauteloso, sem uma grande onda de implementação de agentes de IA de código aberto”, concordou Wang Pengbo. Ele acredita que o foco futuro será em conformidade, suporte à decisão e pequenos cenários, como otimização de gerenciamento de risco, automação de conformidade e aumento de eficiência operacional. As instituições evitarão automação total, priorizando áreas de baixo risco, como atendimento ao cliente e publicidade, para evitar riscos de segurança e conformidade em operações críticas.

Um profissional de banco também destacou que, no curto prazo, as instituições não buscarão automação completa, mas uma combinação de “Humans in the Loop” (humanos no ciclo de decisão), garantindo que especialistas tenham a decisão final.

Além disso, a tendência será de “multi-agentes + supervisão humana”, formando uma arquitetura híbrida para lidar com cenários financeiros complexos.

Por fim, é fundamental estabelecer um sistema de governança de IA. As instituições financeiras devem criar mecanismos de gestão, incluindo inventário de ativos de IA, avaliação de riscos, controle de ciclo de vida, garantindo que o uso de IA permaneça seguro e em conformidade.

Com base na tendência do setor e nas exigências regulatórias, muitos profissionais afirmam que, nos próximos cinco a dez anos, o uso de ferramentas de código aberto só será possível se a proteção de informações pessoais for rigorosa, a tecnologia for totalmente controlável e os riscos gerenciáveis. Além disso, é necessário criar normas específicas para o uso de ferramentas de código aberto no setor financeiro, definindo claramente escopo, padrões de segurança e responsabilidades, além de garantir soluções maduras de ecossistema aberto, com monitoramento de vulnerabilidades, suporte à independência tecnológica e controle de riscos, mantendo a intervenção humana e evitando riscos irreversíveis.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar