A Camada de Julgamento: Por que a IA não é inteligente até que os líderes sejam mais inteligentes

Guillermo Delgado Aparicio é Líder Global de IA na Nisum.


Descubra as principais notícias e eventos de fintech!

Subscreva a newsletter do FinTech Weekly

Lida por executivos da JP Morgan, Coinbase, Blackrock, Klarna e mais


A IA em fintech abrange uma série de casos de uso, desde deteção de fraude e trading algorítmico até scoring de crédito dinâmico e recomendações personalizadas de produtos. No entanto, um relatório da Financial Conduct Authority descobriu que, dos 75% das empresas que usam IA, apenas 34% sabem como ela funciona.

O problema não é apenas falta de conhecimento. Trata-se de uma incompreensão profunda do poder e do alcance da análise de dados, a disciplina da qual a IA surge. A adoção em massa de ferramentas de IA generativa colocou o tema no C-suite. Mas muitos dos que decidem como implementar IA não compreendem os seus princípios subjacentes de cálculo, estatística e algoritmos avançados.

Pegue na Lei de Benford, um princípio estatístico simples que sinaliza fraude ao detetar padrões nos números. A IA constrói-se sobre o mesmo tipo de matemática, apenas escalada para milhões de transações em simultâneo. Remova o hype, e a base continua a ser estatística e algoritmos.

É por isso que a literacia em IA a nível C importa. Líderes que não conseguem distinguir onde termina a analítica e onde começa correm o risco de depositar confiança excessiva em sistemas que não compreendem ou de os subutilizar por medo. E a história mostra o que acontece quando decisores interpretam mal a tecnologia: os reguladores, uma vez, tentaram proibir chamadas internacionais de IP, apenas para ver a tecnologia ultrapassar as regras. A mesma dinâmica está a acontecer com a IA. Não a pode bloquear nem adotar de forma cega; é necessário discernimento, contexto e capacidade de a orientar de forma responsável.

Os líderes de fintech devem colmatar estas lacunas para usar a IA de forma responsável e eficaz. Isso significa compreender onde termina a analítica e onde começa a IA, desenvolver competências para orientar estes sistemas e aplicar um juízo sólido para decidir quando e como confiar no output.

Os Limites, Pontos Cegos e Ilusões da IA

A analítica analisa dados passados e atuais para explicar o que aconteceu e porquê. A IA cresce a partir dessa base, usando analítica avançada para prever o que vai acontecer a seguir e, cada vez mais, para decidir ou agir automaticamente sobre isso.

Com as suas excecionais capacidades de processamento de dados, é fácil perceber por que razão líderes de fintech veriam a IA como o seu elixir mágico. Mas não consegue resolver todos os problemas. Os humanos ainda têm uma vantagem inata no reconhecimento de padrões, especialmente quando os dados estão incompletos ou “sujos”. A IA pode ter dificuldade em interpretar nuances contextuais que os humanos conseguem captar rapidamente.

Ainda assim, é um erro pensar que dados imperfeitos tornam a IA inútil. Modelos analíticos podem funcionar com dados incompletos. Mas saber quando implementar IA e quando confiar no juízo humano para preencher as lacunas é o verdadeiro desafio. Sem esta supervisão cuidadosa, a IA pode introduzir riscos significativos.

Um desses problemas é o enviesamento (bias). Quando as fintechs treinam IA em conjuntos de dados antigos, muitas vezes herdam o “peso” que vem com eles. Por exemplo, o primeiro nome de um cliente pode, sem intenção, servir como proxy de género, ou pistas inferidas pelo apelido sobre etnia, inclinando os scores de crédito de formas que nenhum regulador aprovaria. Estes enviesamentos, facilmente escondidos na matemática, exigem frequentemente supervisão humana para detetar e corrigir.

Quando modelos de IA são expostos a situações em que não foram treinados, isso pode causar model drift. A volatilidade do mercado, as mudanças regulatórias, comportamentos de clientes em evolução e alterações macroeconómicas podem afetar a eficácia de um modelo sem monitorização e recalibração humana.

A dificuldade de recalibrar algoritmos aumenta acentuadamente quando as fintechs usam black boxes que não permitem visibilidade sobre a relação entre variáveis. Nessas condições, perdem a possibilidade de transferir esse conhecimento para os decisores na gestão. Além disso, erros e enviesamentos permanecem escondidos em modelos opacos, minando a confiança e a conformidade.

O que os Líderes de Fintech Precisam de Saber

Um estudo da Deloitte descobriu que 80% dizem que os seus conselhos têm pouca ou nenhuma experiência com IA. Mas executivos do C-suite não podem dar-se ao luxo de tratar a IA como um “problema da equipa de tecnologia”. A responsabilidade pela IA recai sobre a liderança, o que significa que os líderes de fintech precisam de aumentar competências.

Fluência em análises cruzadas

Antes de implementar IA, os líderes de fintech precisam de conseguir mudar de marcha — observar os números, o business case, as operações e a ética — e perceber como estes fatores se sobrepõem e moldam os resultados da IA. Precisam de compreender como a exatidão estatística de um modelo se relaciona com a exposição ao risco de crédito. E reconhecer quando uma variável que parece financeiramente sólida (como o histórico de repagamento) pode introduzir risco social ou regulatório através da correlação com uma classe protegida, como idade ou etnia.

Esta fluência em IA surge ao trabalhar lado a lado com responsáveis de conformidade para destrinçar regulamentos, ao falar com gestores de produto sobre a experiência do utilizador e ao rever os resultados do modelo com cientistas de dados para detetar sinais de drift ou enviesamento.

Em fintech, evitar 100% dos riscos é impossível, mas com fluência em análises cruzadas, os líderes podem identificar quais riscos vale a pena assumir e quais irão corroer o valor para os acionistas. Esta competência também afia a capacidade de um líder para detetar e atuar sobre enviesamento — não apenas numa perspetiva de conformidade, mas também numa perspetiva estratégica e ética.

Por exemplo, diga-se que um modelo de scoring de crédito orientado por IA fica fortemente enviesado em direção a um grupo específico de clientes. Corrigir esse desequilíbrio não é apenas uma tarefa de ciência de dados; protege a reputação da empresa. Para fintechs comprometidas com a inclusão financeira ou sujeitas a escrutínio ESG, a conformidade legal, por si só, não basta. O juízo significa saber o que é certo, e não apenas o que é permitido.

Literacia em Explicabilidade

A explicabilidade é a base da confiança. Sem ela, decisores, clientes e reguladores ficam sem saber porque é que um modelo chegou a uma conclusão específica.

Isso significa que os executivos têm de ser capazes de distinguir entre modelos interpretáveis e aqueles que necessitam de explicações pós-hoc (como valores SHAP ou LIME). Têm de colocar perguntas quando a lógica de um modelo não é clara e reconhecer quando “exatidão” por si só não consegue justificar uma decisão de uma black box.

Os enviesamentos não aparecem do nada; surgem quando os modelos são treinados e implementados sem supervisão suficiente. A explicabilidade dá aos líderes visibilidade para detetar estes problemas cedo e agir antes de causarem danos.

A IA é como o piloto automático num avião. Na maior parte do tempo, funciona de forma suave, mas quando há uma tempestade, o piloto tem de assumir o controlo. Em finanças, aplica-se o mesmo princípio. As equipas precisam de capacidade para parar o trading, ajustar uma estratégia ou até tirar o produto do ar quando as condições mudam. A explicabilidade funciona em conjunto com a prontidão para intervenção (override), o que garante que líderes do C-suite compreendem a IA e permanecem no controlo, mesmo quando está a operar à escala.

Pensamento em Modelos Probabilísticos

Os executivos estão habituados a decisões determinísticas, como “se um score de crédito for inferior a 650, rejeitar o pedido”. Mas a IA não funciona assim, e esta é uma grande mudança de paradigma mental.

Para os líderes, o pensamento probabilístico exige três capacidades:

*   Interpretar intervalos de risco em vez de resultados binários de sim/não.
*   Pesar o nível de confiança de uma previsão face a outras considerações de negócio ou regulatórias.
*   Saber quando anular (override) a automação e aplicar discricionariedade humana.

Por exemplo, um modelo de IA probabilística de uma fintech pode sinalizar um cliente como de alto risco, mas isso não significa necessariamente “negar”. Pode significar “investigar mais” ou “ajustar os termos do empréstimo”. Sem esta nuance, o risco é a automação tornar-se uma ferramenta rombuda, corroendo a confiança do cliente enquanto expõe as empresas a reações negativas por parte dos reguladores.

Porque a Camada de Juízo Vai Definir os Vencedores em Fintech

O futuro da fintech não será decidido por quem tem os modelos de IA mais poderosos; será antes decidido por quem os usa com o juízo mais apurado. À medida que a IA se torna “commodity”, os ganhos de eficiência passam a ser um requisito mínimo. O que separa os vencedores é a capacidade de intervir quando os algoritmos se deparam com incerteza, risco e zonas cinzentas éticas.

A camada de juízo não é uma ideia abstrata. Ela aparece quando os executivos decidem pausar o trading automatizado, adiar um lançamento de produto ou anular (override) uma pontuação de risco que não reflete o contexto do mundo real. Estes momentos não são falhas da IA; são a prova de que a supervisão humana é a última linha da criação de valor.

O alinhamento estratégico é onde o juízo se institucionaliza. Uma estratégia de IA forte não define apenas roadmaps técnicos; garante que a organização revê iniciativas, melhora as capacidades de IA das equipas, assegura que a empresa tem a arquitetura de dados necessária e liga cada implementação a um resultado de negócio claro. Neste sentido, o juízo não é episódico, mas é construído no modo de operação e permite que os executivos adotem uma abordagem de liderança baseada em valor.

As fintechs precisam de líderes que saibam equilibrar a IA para velocidade e escala e os humanos para contexto, nuance e visão de longo prazo. A IA pode detetar anomalias em segundos, mas só as pessoas podem decidir quando contrariar os números, repensar pressupostos ou assumir um risco ousado que abre a porta ao crescimento. Essa camada de juízo é o que transforma a IA de uma ferramenta numa vantagem.

Sobre o autor:

Guillermo Delgado é o Líder Global de IA da Nisum e COO da Deep Space Biology. Com mais de 25 anos de experiência em bioquímica, inteligência artificial, biologia espacial e empreendedorismo, desenvolve soluções inovadoras para o bem-estar humano na Terra e no espaço.

Como consultor de estratégia corporativa, contribuiu para a visão de IA da NASA para biologia espacial e recebeu prémios de inovação. Tem uma Licenciatura (Master of Science) em Inteligência Artificial pela Georgia Tech, obtida com distinção. Além disso, enquanto professor universitário, lecionou cursos sobre machine learning, big data e ciência genómica.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar