A Camada de Julgamento: Por que a IA não é inteligente até que os líderes sejam mais inteligentes

Guillermo Delgado Aparicio é Líder Global de IA na Nisum.


Descubra as principais notícias e eventos de fintech!

Inscreva-se na newsletter do FinTech Weekly

Lido por executivos do JP Morgan, Coinbase, Blackrock, Klarna e mais


A IA em fintech abrange uma variedade de casos de uso, desde deteção de fraude e negociação algorítmica até pontuação de crédito dinâmica e recomendações personalizadas de produtos. No entanto, um relatório da Autoridade de Conduta Financeira descobriu que, dos 75% de empresas que usam IA, apenas 34% sabem como ela funciona.

A questão não é apenas a falta de conhecimento. É uma compreensão profunda do poder e do alcance da análise de dados, a disciplina de onde a IA surge. A adoção massiva de ferramentas de IA generativa trouxe o tema para o topo da agenda da alta direção. Mas muitas dessas pessoas que decidem como implementar a IA não entendem seus princípios subjacentes de cálculo, estatística e algoritmos avançados.

Considere a Lei de Benford, um princípio estatístico simples que identifica fraudes ao detectar padrões em números. A IA baseia-se nesse mesmo tipo de matemática, apenas ampliada para milhões de transações ao mesmo tempo. Tirando o hype, a base ainda é estatísticas e algoritmos.

Por isso, a literacia em IA ao nível do topo da gestão é importante. Líderes que não conseguem distinguir onde termina a análise de dados correm o risco de confiar excessivamente em sistemas que não compreendem ou de subutilizá-los por medo. E a história mostra o que acontece quando os tomadores de decisão interpretam mal a tecnologia: reguladores tentaram banir chamadas internacionais de IP, apenas para ver a tecnologia superar as regras. A mesma dinâmica está a acontecer com a IA. Não se pode bloqueá-la ou adotá-la cegamente; é preciso julgamento, contexto e a capacidade de guiá-la de forma responsável.

Líderes de fintech devem fechar essas lacunas para usar a IA de forma responsável e eficaz. Isso significa entender onde termina a análise de dados e começa a IA, desenvolver as habilidades para orientar esses sistemas e aplicar um julgamento sólido para decidir quando e como confiar nos seus resultados.

Os Limites, Pontos Cegos e Ilusões da IA

A análise de dados avalia informações passadas e presentes para explicar o que aconteceu e por quê. A IA nasce dessa base, usando análises avançadas para prever o que acontecerá a seguir e, cada vez mais, decidir ou agir automaticamente com base nisso.

Com suas habilidades excepcionais de processamento de dados, é fácil entender por que os líderes de fintech veem a IA como a sua solução mágica. Mas ela não consegue resolver todos os problemas. Os humanos ainda têm uma vantagem inata no reconhecimento de padrões, especialmente quando os dados estão incompletos ou “sujos”. A IA pode ter dificuldades em interpretar as nuances contextuais que os humanos conseguem captar rapidamente.

No entanto, é um erro pensar que dados imperfeitos tornam a IA inútil. Modelos analíticos podem trabalhar com dados incompletos. Mas saber quando usar a IA e quando confiar no julgamento humano para preencher as lacunas é o verdadeiro desafio. Sem essa supervisão cuidadosa, a IA pode introduzir riscos significativos.

Um desses problemas é o viés. Quando as fintechs treinam a IA com conjuntos de dados antigos, muitas vezes herdando os preconceitos que esses dados carregam. Por exemplo, o nome de um cliente pode, inadvertidamente, servir como um proxy de género, ou pistas inferidas do sobrenome sobre etnia, influenciando as pontuações de crédito de formas que nenhum regulador aprovaria. Esses vieses, facilmente escondidos na matemática, muitas vezes requerem supervisão humana para serem detectados e corrigidos.

Quando os modelos de IA são expostos a situações para as quais não foram treinados, isso pode causar desvio de modelo. A volatilidade do mercado, mudanças regulatórias, comportamentos evolutivos dos clientes e alterações macroeconómicas podem afetar a eficácia de um modelo sem monitorização e recalibração humanas.

A dificuldade de recalibrar algoritmos aumenta significativamente quando as fintechs usam caixas-pretas que não permitem visibilidade sobre a relação entre variáveis. Nessas condições, perdem a possibilidade de transferir esse conhecimento para os decisores na gestão. Além disso, erros e vieses permanecem ocultos em modelos opacos, minando a confiança e a conformidade.

O que os Líderes de Fintech Precisam Saber

Uma pesquisa da Deloitte revelou que 80% afirmam que seus conselhos de administração têm pouca ou nenhuma experiência com IA. Mas os executivos do topo da gestão não podem tratar a IA como um “problema da equipe de tecnologia”. A responsabilidade pela IA recai sobre a liderança, ou seja, os líderes de fintech precisam de mais competências.

Fluência cross-analítica

Antes de implementar a IA, os líderes de fintech precisam ser capazes de mudar de foco — analisando os números, o caso de negócio, as operações e a ética — e perceber como esses fatores se sobrepõem e moldam os resultados da IA. Devem compreender como a precisão estatística de um modelo se relaciona com a exposição ao risco de crédito. E reconhecer quando uma variável que parece financeiramente sólida (como histórico de pagamento) pode introduzir risco social ou regulatório por meio de correlação com uma classe protegida, como idade ou etnia.

Essa fluência em IA vem de sentar-se com os responsáveis de conformidade para entender regulamentos, conversar com gestores de produto sobre a experiência do usuário e revisar resultados de modelos com cientistas de dados para detectar sinais de desvio ou viés.

Em fintech, evitar 100% dos riscos é impossível, mas com fluência cross-analítica, os líderes podem identificar quais riscos valem a pena assumir e quais podem erodir o valor para os acionistas. Essa habilidade também aprimora a capacidade de detectar e agir contra vieses, não apenas do ponto de vista de conformidade, mas também estratégico e ético.

Por exemplo, se um modelo de pontuação de crédito baseado em IA tende a favorecer um grupo de clientes, corrigir esse desequilíbrio não é apenas uma tarefa de ciência de dados; protege a reputação da empresa. Para fintechs comprometidas com inclusão financeira ou enfrentando escrutínio ESG, a conformidade legal sozinha não basta. O julgamento implica saber o que é certo, não apenas o que é permitido.

Literacia em Explicabilidade

A explicabilidade é a base da confiança. Sem ela, os tomadores de decisão, clientes e reguladores ficam questionando por que um modelo chegou a uma conclusão específica.

Isso significa que os executivos devem ser capazes de distinguir entre modelos interpretáveis e aqueles que precisam de explicações pós-hoc (como valores SHAP ou LIME). Devem fazer perguntas quando a lógica de um modelo não estiver clara e reconhecer quando “precisão” sozinha não justifica uma decisão de caixa preta.

O viés não surge do nada; ele surge quando os modelos são treinados e implantados sem supervisão suficiente. A explicabilidade dá aos líderes a visibilidade para detectar esses problemas cedo e agir antes que causem danos.

A IA é como o piloto automático de um avião. Na maior parte do tempo, funciona sem problemas, mas quando uma tempestade surge, o piloto precisa assumir o controle. No setor financeiro, esse mesmo princípio se aplica. As equipes precisam da capacidade de parar negociações, ajustar uma estratégia ou até cancelar um lançamento de produto quando as condições mudam. A explicabilidade funciona em conjunto com a prontidão para intervenção, garantindo que os líderes do topo entendam a IA e permaneçam no controle, mesmo quando ela opera em grande escala.

Pensamento Probabilístico de Modelos

Os executivos estão acostumados a decisões determinísticas, como se a pontuação de crédito for abaixo de 650, rejeitar a solicitação. Mas a IA não funciona assim e essa é uma mudança de paradigma mental importante.

Para os líderes, o pensamento probabilístico exige três capacidades:

*   Interpretar intervalos de risco em vez de resultados binários sim/não.
*   Avaliar o nível de confiança de uma previsão em relação a outras considerações de negócio ou regulatórias.
*   Saber quando substituir a automação por discrição humana.

Por exemplo, um modelo de IA probabilístico de uma fintech pode sinalizar um cliente como de alto risco, mas isso não significa necessariamente “rejeitar”. Pode significar “investigar mais” ou “ajustar os termos do empréstimo”. Sem essa nuance, a automação corre o risco de se tornar uma ferramenta bruta, minando a confiança do cliente e expondo as empresas a reações regulatórias adversas.

Por que a Camada de Julgamento Vai Definir os Vencedores em Fintech

O futuro do fintech não será decidido por quem tem os modelos de IA mais poderosos; mas por quem os usa com o julgamento mais afiado. À medida que a IA se torna uma commodity, ganhos de eficiência tornam-se o padrão. O que diferencia os vencedores é a capacidade de intervir quando os algoritmos enfrentam incerteza, risco e zonas cinzentas éticas.

A camada de julgamento não é uma ideia abstrata. Ela aparece quando os executivos decidem pausar negociações automatizadas, atrasar um lançamento de produto ou substituir uma pontuação de risco que não reflete o contexto real. Esses momentos não são falhas da IA; são provas de que a supervisão humana é a última linha de criação de valor.

O alinhamento estratégico é onde o julgamento se torna institucionalizado. Uma estratégia de IA sólida não apenas estabelece roteiros técnicos; garante que a organização revise iniciativas, atualize as capacidades de IA das equipes, assegure que a arquitetura de dados seja adequada e conecte cada implantação a um resultado de negócio claro. Nesse sentido, o julgamento não é episódico, mas incorporado ao modo de operação e permite que os líderes conduzam uma abordagem de liderança baseada em valor.

As fintechs precisam de líderes que saibam equilibrar IA para velocidade e escala e humanos para contexto, nuance e visão de longo prazo. A IA pode detectar anomalias em segundos, mas somente as pessoas podem decidir quando contestar a matemática, repensar suposições ou assumir um risco ousado que abra portas para o crescimento. Essa camada de julgamento é o que transforma a IA de uma ferramenta em uma vantagem.

Sobre o autor:

Guillermo Delgado é o Líder Global de IA na Nisum e COO da Deep Space Biology. Com mais de 25 anos de experiência em bioquímica, inteligência artificial, biologia espacial e empreendedorismo, ele desenvolve soluções inovadoras para o bem-estar humano na Terra e no espaço.

Como consultor de estratégia corporativa, contribuiu para a visão de IA da NASA para a biologia espacial e recebeu prémios de inovação. Possui um Mestrado em Ciência em Inteligência Artificial pelo Georgia Tech, obtido com distinção. Além disso, como professor universitário, lecionou cursos sobre aprendizagem de máquina, big data e ciência genómica.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar