A IA em Conformidade Não é uma Caixa Preta — É um Teste de Responsabilidade: Entrevista com Roman Eloshvili

Roman Eloshvili é fundador da ComplyControl, uma startup de deteção de fraudes e conformidade alimentada por IA para instituições financeiras.


Descubra as principais notícias e eventos de fintech!

Subscreva a newsletter da FinTech Weekly

Lida por executivos da JP Morgan, Coinbase, Blackrock, Klarna e mais


O que a IA na conformidade está realmente a testar: tecnologia… ou nós?

Nos serviços financeiros, a conformidade já não é apenas uma função. É um ponto de pressão ativo—onde a regulamentação, o risco e as operações se cruzam. À medida que tecnologias de IA são introduzidas neste espaço, uma questão volta constantemente: até que ponto podemos realmente automatizar, e quem continua responsável quando as coisas correm mal?

É fácil compreender o apelo da IA na deteção de fraudes e na conformidade. As instituições financeiras enfrentam expectativas crescentes para processar enormes volumes de dados, responder a ameaças em evolução e cumprir regulamentações em mudança—sem comprometer a velocidade nem a precisão. A automação, especialmente quando impulsionada por machine learning, oferece uma forma de reduzir a pressão operacional. Mas também levanta preocupações mais profundas relacionadas com governação, explicabilidade e controlo.

Estas tensões não são teóricas. Estão a acontecer em tempo real, à medida que as empresas financeiras implementam modelos de IA em papéis tradicionalmente ocupados por analistas humanos. Por trás dos bastidores, surgem novos riscos: falsos positivos, falhas cegas em auditorias e decisões algorítmicas que permanecem opacas tanto para utilizadores como para reguladores.

Ao mesmo tempo, os profissionais de conformidade estão a ser convidados a mudar de funções. Em vez de inspecionar manualmente cada transação, passam a supervisionar as ferramentas. Esta reformulação—de executor para avaliador—exige não só novas competências técnicas, mas também uma maior consciência de responsabilidade ética e processual. A IA pode escalar a análise de dados. Pode detetar inconsistências. Mas não consegue explicar totalmente a intenção, interpretar o contexto ou absorver a culpa.

Compreender estes limites é fundamental. E poucas pessoas estão melhor posicionadas para explorá-los do que Roman Eloshvili, fundador da empresa de tecnologia de conformidade ComplyControl, sediada no Reino Unido. O trabalho dele situa-se precisamente na interseção entre risco, automação e supervisão—onde a eficiência algorítmica encontra o escrutínio regulatório.

Com mais de uma década no setor, Roman já viu em primeira mão como as equipas de conformidade estão a evoluir e como a IA está a remodelar tanto os respetivos fluxos de trabalho como as suas responsabilidades. Ele defende que a promessa da IA não está em eliminar funções humanas, mas em as remodelar—trazendo mais clareza sobre o que as máquinas devem tratar e sobre o que os humanos continuam a ter de assumir.

Esta mudança exige mais do que atualizações técnicas. Requer uma reorientação cultural em torno da responsabilidade. Sistemas transparentes, processos auditáveis e responsabilidades humanas claramente atribuídas já não são apenas “funcionalidades”—são o padrão mínimo. Quando a IA é introduzida em infraestruturas críticas, não resolve apenas problemas. Introduz uma nova categoria de decisões que exige uma tutela ativa e estratégica.

Nesta conversa para a FinTech Weekly, Roman apresenta uma visão fundamentada sobre o que é necessário para integrar a IA de forma responsável na conformidade e na prevenção de fraudes. A perspetiva dele não enquadra a automação como inevitável, mas como uma escolha—uma que exige julgamento humano contínuo, clareza operacional e a disposição para fazer perguntas difíceis sobre onde a confiança realmente reside.

Estamos satisfeitos por partilhar as suas ideias num momento em que muitos no setor fintech estão a perguntar não se devem adotar IA—mas como fazê-lo sem perder de vista os padrões que fizeram com que os sistemas financeiros funcionassem em primeiro lugar.


1. Construíste uma carreira na encruzilhada da conformidade e da tecnologia. Consegues recordar o momento em que percebeste que a IA poderia mudar fundamentalmente a forma como a gestão de risco é feita?

Eu não diria que foi apenas um momento específico que mudou tudo. Pelo contrário, foi um processo gradual, espalhado no tempo. Passei uma boa parte da minha carreira a trabalhar com bancos europeus estabelecidos, e uma coisa que ia notando é que muitos deles estavam bem atrás quando se tratava de soluções de banca digital. O contraste era especialmente evidente face a centros de fintech mais avançados.

Há alguns anos, quando o tema do desenvolvimento de IA voltou a aquecer, fiquei naturalmente curioso e comecei a aprofundar. E, à medida que eu estudava a tecnologia e o modo como funciona, percebi que a inteligência artificial tinha o potencial para transformar drasticamente a forma como os bancos lidam com a sua conformidade, colocando-os mais ao nível de players fintech modernos e mais ágeis.

Foi isso que me levou a lançar a minha empresa em 2023. A complexidade da conformidade e da gestão de risco só continua a crescer ano após ano. Diante desta realidade, a nossa missão é simples: levar soluções com IA para empresas financeiras e ajudá-las a lidar com desafios tão crescentes de forma mais eficaz.

2. Do teu ponto de vista profissional, como é que o papel de especialistas humanos evoluiu à medida que as ferramentas de IA se tornaram mais avançadas na conformidade e na deteção de fraudes?

Antes de dizer qualquer outra coisa, deixa-me abordar logo uma questão. Existe uma preocupação comum em muitas áreas sobre se a IA vai substituir trabalhadores humanos. E, no que diz respeito a profissionais de conformidade e de risco, a minha resposta é não — pelo menos, não tão cedo.

Embora a inteligência artificial já esteja a transformar a nossa indústria, ainda está longe de ser infalível. Por isso, a intervenção humana continua a ser um fator essencial. As regulamentações de conformidade mudam constantemente, e alguém tem de conseguir assumir responsabilidade quando os sistemas não conseguem acompanhar ou cometem erros. No seu nível atual de desenvolvimento, a IA ainda tem dificuldade em explicar claramente as suas decisões, por isso não está pronta para ficar sozinha. Especialmente num setor em que confiança e transparência são fundamentais.

Dito isto, a IA está a tornar os processos de conformidade cada vez mais fáceis. Por exemplo, dependendo da configuração, os sistemas de IA podem agora detetar transações suspeitas ou até bloqueá-las temporariamente, solicitando verificação adicional. Não é necessário que humanos reais passem horas a examinar cada detalhe manualmente, a menos que algo se destaque verdadeiramente como estranho. E à medida que estes sistemas evoluem, irão continuar a reduzir a necessidade de trabalho manual, permitindo que as equipas se foquem mais em tarefas mais subtis que realmente exigem a intervenção humana.

Acredito que vamos ver a ascensão de um modelo híbrido, em que especialistas em conformidade também se tornarão cada vez mais proficientes a usar ferramentas de IA. Serão eles a implementar e manter os sistemas de IA, enquanto a própria IA simplificará o trabalho ao fazer sentido de dados complexos e ao fornecer recomendações. No entanto, o juízo final continuará nas mãos dos humanos.

3. Quando trabalhas com IA em áreas sensíveis como a conformidade financeira, como é que tu, pessoalmente, abordaste o desafio de manter confiança e responsabilidade na tomada de decisões?

Claro. Tal como já mencionei, quando estás a usar IA na conformidade, a confiança é crucial.

É por isso que construímos os nossos sistemas de IA para serem totalmente transparentes. Eles não operam como uma “caixa negra”—cada recomendação que o sistema faz baseia-se em regras e dados rastreáveis. Mantemos um registo de auditoria completo sobre como é tomada cada decisão, para que possa ser totalmente explicada. Esta prática já provou ser extremamente valiosa ao lidar com reguladores.

A chamada final é sempre responsabilidade do responsável de conformidade. A IA apenas oferece uma sugestão bem fundamentada, que o humano pode então verificar facilmente e decidir se deve aprovar ou rejeitar.

4. A tua experiência abrange mais de 10 anos. Como é que a tua mentalidade sobre automação e supervisão humana mudou ao longo da tua carreira, especialmente agora que a IA está a tornar-se mais autónoma?

Sem dúvida. Falando de forma mais ampla sobre o estado da adoção de IA, quanto mais esta tecnologia progride, mais autonomia vamos permitindo gradualmente—desde que seja exaustivamente testada e continue a demonstrar-se fiável.

Mas o que está a mudar ainda mais é a parte que o especialista humano desempenha nesta equação. Em vez de microgerir cada caso, os responsáveis de conformidade estão agora cada vez mais a assumir o papel de supervisores estratégicos. Podem analisar lotes inteiros de casos semelhantes num curto espaço de tempo, validar o desempenho do sistema e ajustar modelos com base nos resultados.

Por outras palavras, o papel de facto dos responsáveis de conformidade está a transitar de fazer o trabalho manualmente para gerir sistemas de IA à medida que estes fazem o trabalho por eles.

5. Trabalhar em gestão de risco orientada por IA significa navegar por questões éticas complexas. Como é que tu, pessoalmente, desenvolveste um quadro para tomar escolhas responsáveis ao conceber ou implementar soluções baseadas em IA?

Construímos a nossa abordagem assente em duas ideias-chave: supervisão clara e princípios de IA Responsável. Cada modelo que usamos tem alguém designado como responsável. Avaliações de risco, revisões de desempenho e verificações de conformidade são realizadas regularmente.

Também garantimos que os nossos sistemas são auditáveis. Se o algoritmo tomar uma decisão, esse processo pode ser revisto e verificado. Esta transparência é uma parte central do nosso compromisso com o desenvolvimento responsável de IA.

6. Na tua trajetória, qual foi a lição profissional mais difícil que aprendeste sobre os limites—ou os riscos—de confiar demasiado na automação em áreas críticas como a prevenção de fraudes?

Uma lição que definitivamente precisamos de ter em mente é que mesmo modelos bem treinados ainda podem “alucinar”—podem errar de formas subtis, mas com consequências sérias.

A IA pode falhar esquemas de fraude complexos, ou pode despoletar alertas falsos em excesso. É exatamente por isso que é tão importante combinar IA com experiência humana—os humanos trazem consigo um julgamento fluido e estão melhor preparados para avaliar a ética e o contexto geral de formas que a IA não consegue.

O equilíbrio entre estas duas promessas resulta em melhores resultados, mais fiáveis. A IA pode ser usada para cobrir a enorme quantidade de tarefas e simplificar a sua complexidade, enquanto as pessoas, por sua vez, são usadas para manter o nível adequado de precisão e confiança.

7. Para jovens profissionais que entram hoje em conformidade, gestão de risco ou desenvolvimento de IA, que princípios pessoais ou hábitos lhes aconselharias a cultivar para terem sucesso e se adaptarem a um ambiente tão rapidamente em mudança?

Em primeiro lugar: nunca deixes de aprender. O progresso tecnológico não tem um botão de “pausa”, e tens de acompanhar ou ficas para trás. Não há meio-termo aqui.

Em segundo lugar, pensa de forma ampla. Com o avanço da IA, as fronteiras entre funções estão a ficar menos nítidas—tecnologia, finanças e regulamentação estão a tornar-se uma mistura. Estou convencido de que ter um conjunto amplo de competências e uma mente aberta serão as características determinantes para os futuros profissionais da área.

Em terceiro — e como continuação natural das duas anteriores — sê adaptável. A mudança é constante, e a capacidade de ajustar rapidamente será uma grande vantagem para ti.

E, por fim, desenvolve competências fortes de comunicação e aprende a ser um jogador de equipa. Como já abordámos, a conformidade está na encruzilhada entre o negócio, a tecnologia e a lei. Assim, conseguir mudar de marcha e falar com pessoas de todos estes mundos será uma competência valiosa para adquirir.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar