Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
O dilema da conformidade com IA: a confiança ainda pertence aos humanos
Roman Eloshvili é fundador e director executivo da XData Group, uma empresa de desenvolvimento de software B2B. Lá, ele dirige o desenvolvimento de IA no setor bancário enquanto navega nas relações com investidores e promove a escalabilidade dos negócios. Ele é também o fundador da ComplyControl, uma startup RegTech baseada no Reino Unido que se especializa em soluções tecnológicas de ponta para bancos.
Descubra as principais notícias e eventos fintech!
Subscreva a newsletter do FinTech Weekly
Lida por executivos da JP Morgan, Coinbase, Blackrock, Klarna e muito mais
Bancos e fintechs em todo o mundo estão à procura de formas de usar inteligência artificial de diversas maneiras: para acelerar operações, reduzir custos, melhorar interacções com clientes, e mais. No entanto, quando se trata de conformidade — indiscutivelmente, uma das partes mais exigentes e demoradas das finanças — a maioria das empresas ainda está a hesitar.
Um inquérito realizado no início de 2025 descobriu que apenas uma pequena fração das empresas (menos de 2%) integrou realmente a IA nas suas operações. A maioria delas, no entanto, ainda permanece nas fases iniciais de exploração e adopção. Se é que realmente a adoptam.
A pressão sobre as empresas para se manterem a par das mudanças regulamentares continua a ser muito forte e está a aumentar. Então, porque é que a conformidade é tão lenta a abraçar a IA quando poderia ser de grande ajuda?
Vamos tentar descobrir.
O Olho Humano para as Coisas Ainda Importa
Provavelmente a primeira e mais importante coisa que precisamos ter em mente aqui é que a conformidade não se resume a seguir uma lista de verificação. Trata-se de tomar decisões de julgamento em situações que muitas vezes caem em áreas cinzentas. O mundo das decisões financeiras raramente é preto e branco. As regulamentações diferem entre jurisdições, e a interpretação dessas regras raramente é simples.
A IA é brilhante a processar dados a uma velocidade relâmpago e a detectar anomalias. Mas, enquanto pode sinalizar uma transacção que parece suspeita com base em padrões pré-estabelecidos, isso não significa que pode explicar claramente o “porquê” por trás das suas conclusões. Mais importante ainda, luta com a nuance. Um agente de conformidade humano pode detectar quando o comportamento de um cliente, embora incomum, é inofensivo. A IA, por outro lado, é muito mais propensa a simplesmente disparar um alarme sem contexto.
É por isso que os líderes de conformidade hesitam em entregar o controlo aqui. As máquinas podem certamente ser úteis, mas a maioria das pessoas ainda confia muito mais na capacidade de um humano de ver o quadro mais amplo e julgar de acordo.
Eficiência vs. Riscos Regulamentares e Reputacionais
A capacidade de uma IA de analisar milhares de transacções em tempo real é algo que nenhuma equipa de conformidade poderia igualar enquanto estiver presa ao modo manual. Portanto, em termos de eficiência, ninguém pode argumentar que não é uma grande ferramenta de apoio, capaz de reduzir a carga de trabalho para que os funcionários humanos possam concentrar-se em tarefas mais estratégicas e nuançadas.
Mas a conformidade não é uma área onde a velocidade sozinha vence. Se um sistema de IA comete um erro de julgamento, isso pode significar multas, danos reputacionais ou escrutínio regulamentar. Todas essas coisas podem ser muito prejudiciais para um negócio — possivelmente até destrutivas. Então, é de admirar que muitos queiram evitar convidar tais complicações sobre as suas cabeças?
A maioria dos reguladores também concorda que, quando se trata de tomada de decisão baseada em IA, alguém deve permanecer responsável. Se um modelo de IA bloquear erroneamente uma transacção legítima ou ignorar uma fraudulenta, a responsabilidade recai, em última instância, sobre a empresa. E são os agentes de conformidade humanos que precisam assumir essa responsabilidade.
Isso cria um sentido natural de cautela: os líderes de conformidade têm que pesar os benefícios de um monitoramento mais rápido contra os riscos de possíveis penalidades regulamentares. E até que os sistemas de IA se tornem mais explicáveis e transparentes, é provável que muitas empresas hesitem em deixá-los tomar decisões autónomas.
Como Avançar com a Adoção de IA de Forma Responsável
Uma lição muito importante a retirar de tudo o que foi dito acima é que a hesitação dos líderes de conformidade não significa que eles sejam anti-IA. Na verdade, muitos estão optimistas quanto ao papel da IA no futuro. A questão importante é encontrar o caminho certo a seguir.
Na minha opinião, o curso mais natural e promissor disponível para nós é adoptar um modelo híbrido. Uma colaboração entre humanos e IA, onde a inteligência artificial faz o trabalho pesado — a escanear transacções, a sinalizar actividades incomuns, ou a gerar relatórios. E quando os resultados finais estão prontos, os humanos podem então revê-los, interpretar o contexto das decisões da IA e tomar a decisão final.
Mas para se prescrever a um modelo assim, as empresas precisarão garantir que os seus sistemas de IA sejam explicáveis. A conformidade não se trata apenas de detectar riscos; trata-se de provar que as decisões são justas. É por isso que o mercado precisa de mais ferramentas de IA que possam explicar os seus resultados em termos simples.
Não se Trata de “Homem vs. Máquina”
Falando realisticamente, não vejo a IA a tornar os agentes de conformidade obsoletos. Muito mais provável é que os seus papéis vão mudar — de executores para gestores. Os agentes passarão menos tempo a realizar verificações eles próprios e em vez disso verificarão as decisões da IA, lidando com as zonas cinzentas onde as máquinas ainda falham.
No seu cerne, a conformidade é um negócio humano. E enquanto a IA pode tornar as equipas de conformidade mais rápidas e eficazes, não pode lidar com a responsabilidade moral e regulamentar que vem com isso.
É por isso que é a minha firme crença que o futuro da conformidade será menos sobre “homem contra máquina” e mais sobre “homem com máquina” — a trabalhar juntos para manter os sistemas financeiros seguros e justos.