La capa de juicio: por qué la IA no es inteligente hasta que los líderes sean más inteligentes

Guillermo Delgado Aparicio es el Líder Global de IA en Nisum.


Descubre las principales noticias y eventos de fintech

Suscríbete al boletín de FinTech Weekly

Leído por ejecutivos en JP Morgan, Coinbase, Blackrock, Klarna y más


La IA en fintech abarca una variedad de casos de uso, desde la detección de fraude y el trading algorítmico hasta el scoring crediticio dinámico y las recomendaciones personalizadas de productos. Sin embargo, un informe de la Financial Conduct Authority halló que, de las 75% de las empresas que usan IA, solo 34% saben cómo funciona.

El problema no es solo la falta de conciencia. Es una comprensión profundamente errónea del poder y el alcance del análisis de datos, la disciplina de la que surge la IA. La adopción masiva de herramientas de IA generativa ha llevado el tema al nivel C-suite. Pero muchos de quienes deciden cómo implementar la IA no entienden sus principios subyacentes de cálculo, estadística y algoritmos avanzados.

Toma la Ley de Benford, un principio estadístico simple que detecta el fraude al identificar patrones en los números. La IA se basa en ese mismo tipo de matemáticas, solo que escalado a millones de transacciones a la vez. Si quitamos el bombo, la base sigue siendo estadística y algoritmos.

Por eso la alfabetización en IA a nivel C importa. Los líderes que no pueden distinguir dónde termina el análisis y dónde empieza corren el riesgo de sobreconfiar en sistemas que no comprenden o de subutilizarlos por miedo. Y la historia muestra qué sucede cuando los responsables de la toma de decisiones interpretan mal la tecnología: los reguladores intentaron prohibir las llamadas internacionales de IP, solo para ver cómo la tecnología superaba las reglas. La misma dinámica se está dando con la IA. No puedes bloquearla ni adoptarla a ciegas; necesitas criterio, contexto y la capacidad de orientarla de manera responsable.

Los líderes de fintech deben cerrar estas brechas para usar la IA de forma responsable y efectiva. Eso significa entender dónde termina el análisis y dónde empieza la IA, desarrollar las habilidades para dirigir estos sistemas y aplicar un criterio sólido para decidir cuándo y cómo confiar en su salida.

Los límites, puntos ciegos e ilusiones de la IA

El análisis analiza datos pasados y presentes para explicar qué pasó y por qué. La IA crece a partir de esa base, usando análisis avanzado para predecir qué pasará a continuación y, cada vez más, para decidir o actuar automáticamente sobre ello.

Con sus habilidades excepcionales de procesamiento de datos, es fácil ver por qué los líderes de fintech verían la IA como su bala mágica. Pero no puede resolver todos los problemas. Los humanos todavía tienen una ventaja innata en el reconocimiento de patrones, especialmente cuando los datos están incompletos o “sucios”. La IA puede tener dificultades para interpretar matices contextuales que los humanos captan rápidamente.

Sin embargo, es un error pensar que los datos imperfectos hacen que la IA sea inúsel. Los modelos analíticos pueden funcionar con datos incompletos. Pero saber cuándo implementar IA y cuándo confiar en el criterio humano para llenar los vacíos es el verdadero desafío. Sin esta supervisión cuidadosa, la IA puede introducir riesgos significativos.

Uno de esos problemas es el sesgo. Cuando los fintech entrenan IA con conjuntos de datos antiguos, a menudo heredan el “equipaje” que viene con ellos. Por ejemplo, el nombre de pila de un cliente puede servir sin querer como un proxy de género, o pistas inferidas por el apellido sobre la etnicidad, inclinando los scores crediticios de maneras que ningún regulador aprobaría. Estos sesgos, fácilmente ocultos en las matemáticas, a menudo requieren supervisión humana para detectarlos y corregirlos.

Cuando los modelos de IA se exponen a situaciones para las que no fueron entrenados, esto puede causar deriva del modelo. La volatilidad del mercado, los cambios regulatorios, la evolución de los comportamientos de los clientes y los cambios macroeconómicos pueden afectar la efectividad de un modelo sin que haya monitoreo humano y recalibración.

La dificultad para recalibrar algoritmos aumenta de forma drástica cuando los fintech usan cajas negras que no permiten visibilidad sobre la relación entre variables. En estas condiciones, pierden la posibilidad de transferir ese conocimiento a los responsables de la toma de decisiones en la gerencia. Además, los errores y los sesgos permanecen ocultos en modelos opacos, socavando la confianza y el cumplimiento.

Lo que los líderes de fintech necesitan saber

Una encuesta de Deloitte encontró que el 80% dice que sus juntas tienen poca o ninguna experiencia con IA. Pero los ejecutivos del C-suite no pueden permitirse tratar la IA como un “problema del equipo de tecnología”. La rendición de cuentas sobre la IA recae en el liderazgo, lo que significa que los líderes de fintech necesitan perfeccionar sus habilidades.

Fluidez analítica cruzada

Antes de implementar IA, los líderes de fintech necesitan poder cambiar de marcha—mirando las cifras, el caso de negocio, las operaciones y la ética—y ver cómo esos factores se solapan y dan forma a los resultados de la IA. Necesitan comprender cómo la exactitud estadística de un modelo se relaciona con la exposición al riesgo crediticio. Y reconocer cuándo una variable que parece sólida financieramente (como el historial de pago) puede introducir riesgo social o regulatorio a través de la correlación con una clase protegida, como la edad o la etnicidad.

Esta fluidez en IA proviene de sentarse con oficiales de cumplimiento para desglosar regulaciones, hablar con gerentes de producto sobre la experiencia del usuario y revisar los resultados del modelo con científicos de datos para detectar señales de deriva o sesgo.

En fintech, evitar el 100% de los riesgos es imposible, pero con fluidez analítica cruzada, los líderes pueden identificar qué riesgos vale la pena asumir y cuáles erosionarán el valor para los accionistas. Esta habilidad también afina la capacidad de un líder para detectar y actuar sobre el sesgo, no solo desde el punto de vista de cumplimiento, sino desde una perspectiva estratégica y ética.

Por ejemplo, supongamos que un modelo de scoring crediticio impulsado por IA se inclina fuertemente hacia un grupo de clientes. Corregir ese desequilibrio no es solo una tarea de ciencia de datos; protege la reputación de la empresa. Para los fintech comprometidos con la inclusión financiera o que enfrentan el escrutinio ESG, el cumplimiento legal por sí solo no es suficiente. El criterio significa saber qué es lo correcto, no simplemente qué está permitido.

Alfabetización en explicabilidad

La explicabilidad es la base de la confianza. Sin ella, los responsables de la toma de decisiones, los clientes y los reguladores quedan cuestionándose por qué un modelo llegó a una conclusión específica.

Eso significa que los ejecutivos deben poder distinguir entre modelos que son interpretables y aquellos que necesitan explicaciones post-hoc (como valores SHAP o LIME). Deben hacer preguntas cuando la lógica de un modelo no está clara y reconocer cuándo “exactitud” por sí sola no puede justificar una decisión de caja negra.

El sesgo no aparece de la nada; surge cuando los modelos se entrenan y se despliegan sin una supervisión suficiente. La explicabilidad le da a los líderes la visibilidad para detectar esos problemas temprano y actuar antes de que causen daños.

La IA es como el piloto automático en un avión. La mayor parte del tiempo funciona sin problemas, pero cuando entra una tormenta, el piloto tiene que tomar los controles. En finanzas, se aplica el mismo principio. Los equipos necesitan la capacidad de detener la negociación, ajustar una estrategia o incluso desconectar un lanzamiento de producto cuando cambian las condiciones. La explicabilidad funciona de la mano con la preparación para la anulación, lo que garantiza que los líderes del C-suite comprendan la IA y se mantengan al control, incluso cuando opera a escala.

Pensamiento de modelos probabilísticos

Los ejecutivos están acostumbrados a decisiones deterministas, como “si el score crediticio es inferior a 650, rechazar la solicitud”. Pero la IA no funciona así y esto supone un gran cambio de paradigma mental.

Para los líderes, el pensamiento probabilístico requiere tres capacidades:

*   Interpretar rangos de riesgo en lugar de resultados binarios de sí/no.
*   Ponderar el nivel de confianza de una predicción frente a otras consideraciones de negocio o regulatorias.
*   Saber cuándo anular la automatización y aplicar discreción humana.

Por ejemplo, el modelo probabilístico de IA de un fintech podría marcar a un cliente como de alto riesgo, pero eso no necesariamente significa “denegar”. Podría significar “investigar más” o “ajustar los términos del préstamo”. Sin este matiz, la automatización corre el riesgo de convertirse en un instrumento contundente, erosionando la confianza del cliente mientras expone a las empresas a una reacción regulatoria adversa.

Por qué la capa de criterio definirá a los ganadores en fintech

El futuro de fintech no lo decidirá quién tenga los modelos de IA más potentes; más bien, quién los use con el criterio más agudo. A medida que la IA se vuelve un commodity, las ganancias de eficiencia pasan a ser requisitos básicos. Lo que separa a los ganadores es la capacidad de intervenir cuando los algoritmos chocan con la incertidumbre, el riesgo y las zonas grises éticas.

La capa de criterio no es una idea abstracta. Se manifiesta cuando los ejecutivos deciden pausar la negociación automatizada, retrasar el lanzamiento de un producto o anular una puntuación de riesgo que no refleja el contexto del mundo real. Estos momentos no son fallas de la IA; son la prueba de que la supervisión humana es la línea final de creación de valor.

La alineación estratégica es donde el criterio se institucionaliza. Una estrategia sólida de IA no solo establece hojas de ruta técnicas; asegura que la organización revise iniciativas, actualice las capacidades de IA de los equipos, asegure que la empresa tenga la arquitectura de datos requerida y conecte cada despliegue con un resultado de negocio claro. En este sentido, el criterio no es episódico, sino que está integrado en el modo de operación y permite a los ejecutivos impulsar un enfoque de liderazgo basado en el valor.

Los fintech necesitan líderes que sepan cómo equilibrar la IA para la velocidad y la escala y a los humanos para el contexto, los matices y la visión de largo plazo. La IA puede detectar anomalías en segundos, pero solo las personas pueden decidir cuándo hacer una pausa y empujar en contra de las matemáticas, replantear supuestos o asumir un riesgo audaz que abra la puerta al crecimiento. Esa capa de criterio es lo que convierte la IA de una herramienta en una ventaja.

Sobre el autor:

Guillermo Delgado es el Líder Global de IA de Nisum y COO de Deep Space Biology. Con más de 25 años de experiencia en bioquímica, inteligencia artificial, biología espacial y emprendimiento, desarrolla soluciones innovadoras para el bienestar humano en la Tierra y en el espacio.

Como consultor de estrategia corporativa, ha contribuido a la visión de IA de NASA para la biología espacial y ha recibido premios de innovación. Tiene una Maestría en Ciencias en Inteligencia Artificial de Georgia Tech, obtenida con honores. Además, como profesor universitario, ha impartido cursos sobre aprendizaje automático, big data y ciencia genómica.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado