La capa de juicio: por qué la IA no es inteligente hasta que los líderes sean más inteligentes

Guillermo Delgado Aparicio es el Líder Global de IA en Nisum.


¡Descubre las principales noticias y eventos de fintech!

Suscríbete al boletín de FinTech Weekly

Leído por ejecutivos de JP Morgan, Coinbase, Blackrock, Klarna y más


La IA en fintech abarca una variedad de casos de uso, desde la detección de fraude y el trading algorítmico hasta el scoring crediticio dinámico y recomendaciones personalizadas de productos. Sin embargo, un informe de la Financial Conduct Authority encontró que, de las empresas que usan IA (75%), solo el 34% sabe cómo funciona.

El problema no es solo la falta de conciencia. Es una incomprensión profunda del poder y el alcance del análisis de datos, la disciplina de la que surge la IA. La adopción masiva de herramientas de IA generativa ha llevado el tema al C-suite. Pero muchos de quienes deciden cómo implementar IA no entienden sus principios subyacentes de cálculo, estadística y algoritmos avanzados.

Tomemos la Ley de Benford, un principio estadístico simple que detecta fraude al identificar patrones en los números. La IA se basa en ese mismo tipo de matemáticas, solo que escaladas para millones de transacciones a la vez. Quita el hype, y la base sigue siendo la estadística y los algoritmos.

Por eso importa la alfabetización en IA a nivel directivo. Los líderes que no pueden distinguir dónde termina el análisis y empieza el uso de IA corren el riesgo de sobreconfiar en sistemas que no entienden o de no utilizarlos por miedo. Y la historia muestra qué ocurre cuando quienes toman decisiones malinterpretan la tecnología: los reguladores intentaron prohibir las llamadas internacionales de IP, solo para ver cómo la tecnología superaba las reglas. La misma dinámica está ocurriendo con la IA. No puedes bloquearla ni adoptarla ciegamente; necesitas criterio, contexto y la capacidad de dirigirla de manera responsable.

Los líderes de fintech deben cerrar estas brechas para usar la IA de forma responsable y efectiva. Eso significa entender dónde termina el análisis de datos y dónde comienza la IA, desarrollar las habilidades para dirigir estos sistemas y aplicar un criterio sólido para decidir cuándo y cómo confiar en su salida.

Los límites, puntos ciegos e ilusiones de la IA

El análisis explica con datos pasados y presentes qué ocurrió y por qué. La IA crece a partir de esa base, utilizando análisis avanzado para predecir lo que sucederá después y, cada vez más, para decidir o actuar automáticamente sobre ello.

Gracias a sus excepcionales habilidades de procesamiento de datos, es fácil ver por qué los líderes de fintech podrían ver la IA como su bala de plata. Pero no puede resolver todos los problemas. Los humanos todavía tienen una ventaja innata en el reconocimiento de patrones, especialmente cuando los datos están incompletos o “sucios”. La IA puede tener dificultades para interpretar los matices contextuales que los humanos captan rápidamente.

Sin embargo, es un error pensar que los datos imperfectos vuelven la IA inútil. Los modelos analíticos pueden funcionar con datos incompletos. Pero saber cuándo desplegar la IA y cuándo confiar en el criterio humano para llenar los vacíos es el verdadero desafío. Sin esta supervisión cuidadosa, la IA puede introducir riesgos significativos.

Uno de esos problemas es el sesgo. Cuando las fintech entrenan IA con conjuntos de datos antiguos, a menudo heredan la carga que viene con ellos. Por ejemplo, el nombre de pila de un cliente puede servir involuntariamente como un proxy de género, o las señales inferidas a partir del apellido sobre la etnicidad pueden sesgar los scores crediticios en formas que ningún regulador aprobaría. Estos sesgos, fácilmente ocultos en las matemáticas, a menudo requieren supervisión humana para detectarlos y corregirlos.

Cuando los modelos de IA se exponen a situaciones para las que no fueron entrenados, esto puede causar model drift. La volatilidad del mercado, los cambios regulatorios, la evolución de los comportamientos de los clientes y los cambios macroeconómicos pueden afectar la efectividad de un modelo sin la supervisión y la recalibración humanas.

La dificultad para recalibrar algoritmos aumenta de forma drástica cuando las fintech usan cajas negras que no permiten visibilidad sobre la relación entre variables. En estas condiciones, pierden la posibilidad de transferir ese conocimiento a los responsables de la toma de decisiones en la dirección. Además, los errores y los sesgos permanecen ocultos en modelos opacos, socavando la confianza y el cumplimiento.

Lo que los líderes de fintech necesitan saber

Una encuesta de Deloitte encontró que el 80% afirma que sus juntas tienen poca o ninguna experiencia con IA. Pero los ejecutivos del C-suite no pueden permitirse tratar la IA como un “problema del equipo de tecnología”. La rendición de cuentas sobre la IA recae en la dirección; eso significa que los líderes de fintech necesitan actualizar sus habilidades.

Fluidez analítica transversal

Antes de implementar IA, los líderes de fintech necesitan poder cambiar de marcha: mirar los números, el caso de negocio, las operaciones y la ética, y ver cómo esos factores se superponen y moldean los resultados de la IA. Necesitan comprender cómo la precisión estadística de un modelo se relaciona con la exposición al riesgo crediticio. Y reconocer cuándo una variable que parece financieramente sólida (como el historial de pagos) puede introducir riesgo social o regulatorio mediante su correlación con una clase protegida, como la edad o la etnicidad.

Esta fluidez en IA proviene de convivir con oficiales de cumplimiento para desglosar las regulaciones, hablar con gerentes de producto sobre la experiencia del usuario y revisar los resultados del modelo con científicos de datos para detectar señales de drift o sesgo.

En fintech, evitar el 100% del riesgo es imposible, pero con la fluidez analítica transversal, los líderes pueden identificar qué riesgos vale la pena asumir y cuáles erosionarán el valor para los accionistas. Esta habilidad también afina la capacidad de un líder para detectar y actuar sobre el sesgo, no solo desde un punto de vista de cumplimiento, sino también desde uno estratégico y ético.

Por ejemplo, supongamos que un modelo de scoring crediticio impulsado por IA se inclina fuertemente hacia un grupo de clientes. Corregir ese desequilibrio no es solo una tarea de ciencia de datos; protege la reputación de la empresa. Para las fintech comprometidas con la inclusión financiera o que enfrentan escrutinio ESG, el cumplimiento legal por sí solo no es suficiente. El criterio significa saber qué es correcto, no solo qué está permitido.

Alfabetización en explicabilidad

La explicabilidad es la base de la confianza. Sin ella, quienes toman decisiones, los clientes y los reguladores quedan cuestionando por qué un modelo llegó a una conclusión específica.

Eso significa que los ejecutivos deben poder distinguir entre modelos que son interpretables y aquellos que requieren explicaciones post-hoc (como SHAP values o LIME). Necesitan hacer preguntas cuando la lógica de un modelo no está clara y reconocer cuándo “la precisión” por sí sola no puede justificar una decisión de caja negra.

El sesgo no aparece de la nada; surge cuando los modelos se entrenan y despliegan sin una supervisión suficiente. La explicabilidad da a los líderes la visibilidad para detectar esos problemas temprano y actuar antes de que causen daños.

La IA es como el piloto automático en un avión. La mayor parte del tiempo funciona sin problemas, pero cuando llega una tormenta, el piloto tiene que tomar los controles. En finanzas, se aplica el mismo principio. Los equipos necesitan la capacidad de detener operaciones, ajustar una estrategia o incluso desconectar el lanzamiento de un producto cuando las condiciones cambian. La explicabilidad funciona de la mano con la preparación para intervenir (override readiness), lo cual garantiza que los líderes del C-suite entiendan la IA y permanezcan bajo control, incluso cuando opera a gran escala.

Pensamiento en modelos probabilísticos

Los ejecutivos están acostumbrados a decisiones deterministas, como “si el score crediticio es inferior a 650, rechazar la solicitud”. Pero la IA no funciona así y esto supone un gran cambio de paradigma mental.

Para los líderes, el pensamiento probabilístico requiere tres capacidades:

*   Interpretar rangos de riesgo en lugar de resultados binarios de sí/no.
*   Ponderar el nivel de confianza de una predicción frente a otras consideraciones de negocio o regulatorias.
*   Saber cuándo anular la automatización y aplicar discreción humana.

Por ejemplo, un modelo probabilístico de IA de una fintech podría marcar a un cliente como de alto riesgo, pero eso no significa necesariamente “denegar”. Podría significar “investigar más” o “ajustar los términos del préstamo”. Sin este matiz, el riesgo de la automatización puede volverse un instrumento contundente, erosionando la confianza de los clientes mientras expone a las empresas a reacciones negativas por parte de los reguladores.

Por qué la capa de criterio definirá a los ganadores en fintech

El futuro de fintech no lo decidirá quién tiene los modelos de IA más potentes; más bien, quién los usa con el criterio más agudo. A medida que la IA se vuelve un “commodity”, las mejoras de eficiencia se vuelven una exigencia básica. Lo que separa a los ganadores es la capacidad de intervenir cuando los algoritmos se enfrentan a la incertidumbre, el riesgo y las zonas grises éticas.

La capa de criterio no es una idea abstracta. Se manifiesta cuando los ejecutivos deciden pausar el trading automatizado, retrasar el lanzamiento de un producto o anular una puntuación de riesgo que no refleja el contexto del mundo real. Estos momentos no son fallos de la IA; son la prueba de que la supervisión humana es la última línea de creación de valor.

La alineación estratégica es donde el criterio se institucionaliza. Una estrategia sólida de IA no solo traza planes técnicos; asegura que la organización vuelva a revisar iniciativas, actualice las capacidades de IA de los equipos, asegure que la empresa tenga la arquitectura de datos requerida y conecte cada despliegue con un resultado de negocio claro. En este sentido, el criterio no es algo esporádico, sino que está incorporado al modo operativo y permite a los ejecutivos impulsar un enfoque de liderazgo basado en el valor.

Las fintech necesitan líderes que sepan equilibrar la IA para velocidad y escala, y a las personas para el contexto, los matices y la visión a largo plazo. La IA puede detectar anomalías en segundos, pero solo las personas pueden decidir cuándo empujar de vuelta contra las matemáticas, replantear supuestos o asumir un riesgo audaz que abra la puerta al crecimiento. Esa capa de criterio es lo que convierte la IA de una herramienta en una ventaja.

Acerca del autor:

Guillermo Delgado es el Líder Global de IA para Nisum y COO de Deep Space Biology. Con más de 25 años de experiencia en bioquímica, inteligencia artificial, biología espacial y emprendimiento, desarrolla soluciones innovadoras para el bienestar humano en la Tierra y en el espacio.

Como consultor de estrategia corporativa, ha contribuido a la visión de IA de la NASA para la biología espacial y ha recibido premios de innovación. Tiene una Maestría en Ciencias en Inteligencia Artificial de Georgia Tech, obtenida con honores. Además, como profesor universitario, ha impartido cursos sobre aprendizaje automático, big data y ciencia genómica.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado