La capa de juicio: por qué la IA no es inteligente hasta que los líderes sean más inteligentes

Guillermo Delgado Aparicio es Líder Global de IA en Nisum.


¡Descubre las principales noticias y eventos de fintech!

Suscríbete al boletín de FinTech Weekly

Leen ejecutivos de JP Morgan, Coinbase, Blackrock, Klarna y más


La IA en fintech abarca una variedad de casos de uso, desde la detección de fraude y el trading algorítmico hasta la calificación crediticia dinámica y las recomendaciones personalizadas de productos. Sin embargo, un informe de la Financial Conduct Authority encontró que, de las empresas que usan IA (75%), solo el 34% sabe cómo funciona.

El problema no es solo la falta de conocimiento. Es una incomprensión profunda del poder y el alcance del análisis de datos, la disciplina de la que surge la IA. La adopción masiva de herramientas de IA generativa ha llevado el tema al comité ejecutivo. Pero muchos de quienes deciden cómo implementar la IA no entienden sus principios subyacentes de cálculo, estadística y algoritmos avanzados.

Tomemos la Ley de Benford, un principio estadístico simple que detecta el fraude al observar patrones en los números. La IA se basa en ese mismo tipo de matemáticas, solo que escaladas a millones de transacciones a la vez. Quita el sensacionalismo y la base sigue siendo la estadística y los algoritmos.

Por eso importa la alfabetización en IA a nivel directivo. Los líderes que no pueden distinguir hasta dónde llega el análisis y dónde empieza la IA corren el riesgo de sobreconfiar en sistemas que no entienden o de subutilizarlos por miedo. Y la historia muestra qué ocurre cuando los responsables de la toma de decisiones interpretan mal la tecnología: los reguladores intentaron prohibir llamadas internacionales de IP, solo para ver cómo la tecnología superaba las reglas. La misma dinámica se está desarrollando con la IA. No puedes bloquearla ni adoptarla a ciegas; necesitas criterio, contexto y la capacidad de dirigirla de manera responsable.

Los líderes de fintech deben cerrar estas brechas para usar la IA de forma responsable y efectiva. Eso significa entender dónde termina el análisis y dónde comienza la IA, desarrollar las habilidades para dirigir estos sistemas y aplicar un criterio sólido para decidir cuándo y cómo confiar en su salida.

Los límites, puntos ciegos e ilusiones de la IA

El análisis analiza datos pasados y presentes para explicar qué ocurrió y por qué. La IA crece a partir de esa base, utilizando análisis avanzado para predecir qué ocurrirá después y, cada vez más, para decidir o actuar automáticamente sobre ello.

Con sus habilidades excepcionales para procesar datos, es fácil ver por qué los líderes de fintech considerarían la IA como su solución mágica. Pero no puede resolver cada problema. Los humanos aún tienen una ventaja innata en el reconocimiento de patrones, especialmente cuando los datos están incompletos o “sucios.” La IA puede tener dificultades para interpretar las sutilezas contextuales que los humanos captan rápidamente.

Aun así, es un error pensar que los datos imperfectos vuelven inútil a la IA. Los modelos analíticos pueden funcionar con datos incompletos. Pero saber cuándo implementar IA y cuándo apoyarse en el criterio humano para completar los vacíos es el verdadero desafío. Sin esta supervisión cuidadosa, la IA puede introducir riesgos significativos.

Un problema de este tipo es el sesgo. Cuando los fintech entrenan IA con conjuntos de datos antiguos, a menudo heredan las cargas asociadas. Por ejemplo, el nombre de pila de un cliente puede servir inadvertidamente como un sustituto del género, o las pistas inferidas del apellido sobre la etnia, inclinando las calificaciones crediticias de maneras que ningún regulador aprobaría. Estos sesgos, fácilmente ocultos en las matemáticas, a menudo requieren supervisión humana para detectarlos y corregirlos.

Cuando los modelos de IA se exponen a situaciones para las que no fueron entrenados, esto puede causar deriva del modelo. La volatilidad del mercado, los cambios regulatorios, la evolución de los comportamientos de los clientes y los cambios macroeconómicos pueden afectar la efectividad de un modelo sin que haya monitoreo humano y recalibración.

La dificultad para recalibrar algoritmos aumenta de forma drástica cuando los fintech usan cajas negras que no permiten visibilidad sobre la relación entre variables. En esas condiciones, pierden la posibilidad de transferir ese conocimiento a los responsables de la toma de decisiones en la dirección. Además, los errores y sesgos permanecen ocultos en modelos opacos, socavando la confianza y el cumplimiento.

Lo que los líderes de fintech necesitan saber

Una encuesta de Deloitte encontró que el 80% dice que sus juntas tienen poca o ninguna experiencia con IA. Pero los ejecutivos de C-suite no pueden permitirse tratar la IA como un “problema del equipo de tecnología.” La rendición de cuentas por la IA recae en el liderazgo; eso significa que los líderes de fintech necesitan mejorar sus habilidades.

Fluidez cross-analítica

Antes de implementar IA, los líderes de fintech necesitan poder cambiar de marcha: mirar los números, el caso de negocio, las operaciones y la ética, y ver cómo esos factores se superponen y moldean los resultados de la IA. Necesitan comprender cómo la precisión estadística de un modelo se relaciona con la exposición al riesgo crediticio. Y reconocer cuándo una variable que parece financieramente sólida (como el historial de pagos) puede introducir riesgo social o regulatorio mediante su correlación con una clase protegida, como la edad o la etnia.

Esta fluidez en IA proviene de trabajar con oficiales de cumplimiento para desglosar regulaciones, conversar con product managers sobre la experiencia de usuario y revisar los resultados del modelo con científicos de datos para detectar señales de deriva o sesgo.

En fintech, evitar el riesgo al 100% es imposible, pero con fluidez cross-analítica, los líderes pueden identificar qué riesgos vale la pena asumir y cuáles erosionarán el valor para los accionistas. Esta habilidad también afina la capacidad de un líder para detectar y actuar sobre el sesgo, no solo desde el punto de vista de cumplimiento, sino también desde el punto de vista estratégico y ético.

Por ejemplo, digamos que un modelo de calificación crediticia impulsado por IA se inclina fuertemente hacia un grupo de clientes. Corregir ese desequilibrio no es solo una tarea de ciencia de datos; protege la reputación de la empresa. Para los fintech comprometidos con la inclusión financiera o que enfrentan escrutinio ESG, el cumplimiento legal por sí solo no es suficiente. El criterio significa saber qué es lo correcto, no simplemente lo que está permitido.

Alfabetización en explicabilidad

La explicabilidad es la base de la confianza. Sin ella, los responsables de la toma de decisiones, los clientes y los reguladores se quedan cuestionando por qué un modelo llegó a una conclusión específica.

Eso significa que los ejecutivos deben poder distinguir entre modelos que son interpretables y aquellos que necesitan explicaciones post-hoc (como los valores SHAP o LIME). Necesitan hacer preguntas cuando la lógica de un modelo no es clara y reconocer cuándo “la precisión” por sí sola no puede justificar una decisión de caja negra.

El sesgo no aparece de la nada; surge cuando los modelos se entrenan y se implementan sin una supervisión suficiente. La explicabilidad les da a los líderes la visibilidad para detectar esos problemas temprano y actuar antes de que causen daño.

La IA es como el piloto automático en un avión. La mayor parte del tiempo, funciona sin problemas, pero cuando llega una tormenta, el piloto tiene que tomar el control. En finanzas, se aplica el mismo principio. Los equipos necesitan la capacidad de detener operaciones de trading, ajustar una estrategia o incluso desconectar un lanzamiento de producto cuando cambian las condiciones. La explicabilidad funciona de la mano con la preparación para anular (override), lo que garantiza que los líderes del C-suite entiendan la IA y permanezcan con el control, incluso cuando opera a escala.

Pensamiento de modelos probabilísticos

Los ejecutivos están acostumbrados a decisiones deterministas, como si una calificación crediticia está por debajo de 650, rechazar la solicitud. Pero la IA no funciona así y este es un cambio importante de paradigma mental.

Para los líderes, el pensamiento probabilístico requiere tres capacidades:

*   Interpretar rangos de riesgo en lugar de resultados binarios de sí/no.
*   Ponderar el nivel de confianza de una predicción frente a otras consideraciones de negocio o regulatorias.
*   Saber cuándo anular la automatización y aplicar el criterio humano.

Por ejemplo, un modelo de IA probabilística de un fintech podría marcar a un cliente como de alto riesgo, pero eso no significa necesariamente “denegar.” Podría significar “investigar más” o “ajustar los términos del préstamo.” Sin esta sutileza, el riesgo de la automatización puede convertirse en un instrumento contundente, erosionando la confianza del cliente mientras expone a las empresas a una reacción negativa regulatoria.

Por qué la capa de criterio definirá a los ganadores en fintech

El futuro de fintech no lo decidirá quién tenga los modelos de IA más potentes; más bien, quién los use con el criterio más agudo. A medida que la IA se vuelve un commodity, las ganancias de eficiencia se convierten en un requisito básico. Lo que distingue a los ganadores es la capacidad de intervenir cuando los algoritmos se topan con la incertidumbre, el riesgo y las zonas grises éticas.

La capa de criterio no es una idea abstracta. Aparece cuando los ejecutivos deciden pausar el trading automatizado, retrasar un lanzamiento de producto o anular una puntuación de riesgo que no refleja el contexto del mundo real. Estos momentos no son fallas de la IA; son una prueba de que la supervisión humana es la línea final de la creación de valor.

La alineación estratégica es donde el criterio se institucionaliza. Una estrategia sólida de IA no solo establece hojas de ruta técnicas; garantiza que la organización replantee iniciativas, actualice las capacidades de IA de los equipos, asegure que la empresa tenga la arquitectura de datos necesaria y conecte cada implementación con un resultado de negocio claro. En este sentido, el criterio no es algo episódico, sino que está integrado en el modo de operación y permite a los ejecutivos impulsar un enfoque de liderazgo basado en el valor.

Los fintech necesitan líderes que sepan cómo equilibrar la IA para la velocidad y la escala, y a los humanos para el contexto, la sutileza y la visión de largo plazo. La IA puede detectar anomalías en segundos, pero solo las personas pueden decidir cuándo dar un paso atrás frente a las matemáticas, replantear supuestos o asumir un riesgo audaz que abra la puerta al crecimiento. Esa capa de criterio es lo que convierte la IA de una herramienta en una ventaja.

Sobre el autor:

Guillermo Delgado es el Líder Global de IA de Nisum y COO de Deep Space Biology. Con más de 25 años de experiencia en bioquímica, inteligencia artificial, biología espacial y emprendimiento, desarrolla soluciones innovadoras para el bienestar humano en la Tierra y en el espacio.

Como consultor de estrategia corporativa, ha contribuido a la visión de IA de NASA para la biología espacial y ha recibido premios de innovación. Tiene un Máster en Ciencias en Inteligencia Artificial de Georgia Tech, obtenido con honores. Además, como profesor universitario, ha impartido cursos sobre aprendizaje automático, big data y ciencia genómica.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado