La capa de juicio: por qué la IA no es inteligente hasta que los líderes sean más inteligentes

Guillermo Delgado Aparicio es Líder Global de IA en Nisum.


¡Descubre las principales noticias y eventos del sector fintech!

Suscríbete al boletín de FinTech Weekly

Leído por ejecutivos de JP Morgan, Coinbase, Blackrock, Klarna y más


La IA en fintech abarca una variedad de casos de uso, desde detección de fraude y trading algorítmico hasta puntuación de crédito dinámica y recomendaciones personalizadas de productos. Sin embargo, un informe de la Autoridad de Conducta Financiera encontró que, de las empresas que usan IA, solo el 34% entiende cómo funciona.

El problema no es solo la falta de conocimiento. Es una profunda incomprensión del poder y alcance del análisis de datos, la disciplina de la cual surge la IA. La adopción masiva de herramientas de IA generativa ha llevado el tema a la alta dirección. Pero muchas de esas personas que deciden cómo implementar la IA no entienden sus principios fundamentales de cálculo, estadística y algoritmos avanzados.

Tome la Ley de Benford, un principio estadístico simple que detecta fraudes identificando patrones en los números. La IA se basa en ese mismo tipo de matemáticas, solo escaladas a millones de transacciones a la vez. Quitando el bombo, la base sigue siendo estadística y algoritmos.

Por eso, la alfabetización en IA a nivel directivo es importante. Los líderes que no saben distinguir dónde termina el análisis y empieza la IA corren el riesgo de confiar demasiado en sistemas que no entienden o de subutilizarlos por miedo. La historia muestra qué pasa cuando los tomadores de decisiones malinterpretan la tecnología: los reguladores intentaron prohibir las llamadas internacionales de IP, solo para ver cómo la tecnología superaba las reglas. La misma dinámica se está dando con la IA. No se puede bloquear ni adoptar ciegamente; se necesita juicio, contexto y la capacidad de dirigirla responsablemente.

Los líderes fintech deben cerrar estas brechas para usar la IA de manera responsable y efectiva. Eso implica entender dónde termina el análisis y empieza la IA, desarrollar las habilidades para dirigir estos sistemas y aplicar un juicio sólido para decidir cuándo y cómo confiar en sus resultados.

Los límites, puntos ciegos e ilusiones de la IA

El análisis examina datos pasados y presentes para explicar qué ocurrió y por qué. La IA surge de esa base, usando análisis avanzados para predecir qué pasará a continuación y, cada vez más, para decidir o actuar automáticamente.

Con sus habilidades excepcionales de procesamiento de datos, es fácil entender por qué los líderes fintech ven la IA como su solución mágica. Pero no puede resolver todos los problemas. Los humanos aún tienen una ventaja innata en el reconocimiento de patrones, especialmente cuando los datos son incompletos o “sucios”. La IA puede tener dificultades para interpretar las sutilezas contextuales que los humanos captan rápidamente.

Sin embargo, es un error pensar que los datos imperfectos hacen que la IA sea inútil. Los modelos analíticos pueden trabajar con datos incompletos. Pero saber cuándo desplegar la IA y cuándo confiar en el juicio humano para llenar los vacíos es el verdadero desafío. Sin esta supervisión cuidadosa, la IA puede introducir riesgos significativos.

Uno de estos problemas es el sesgo. Cuando las fintech entrenan la IA con conjuntos de datos antiguos, a menudo heredan los prejuicios que los acompañan. Por ejemplo, el nombre de un cliente puede servir inadvertidamente como proxy de género, o el apellido puede inferir etnia, sesgando las puntuaciones de crédito de maneras que ningún regulador aprobaría. Estos sesgos, fácilmente ocultos en las matemáticas, a menudo requieren supervisión humana para detectar y corregir.

Cuando los modelos de IA se enfrentan a situaciones no contempladas en su entrenamiento, puede ocurrir deriva del modelo. La volatilidad del mercado, cambios regulatorios, comportamientos evolutivos de los clientes y cambios macroeconómicos pueden afectar la efectividad de un modelo sin supervisión y recalibración humanas.

La dificultad de recalibrar algoritmos aumenta considerablemente cuando las fintech usan cajas negras que no permiten ver la relación entre variables. En esas condiciones, pierden la posibilidad de transferir ese conocimiento a los responsables de la toma de decisiones. Además, errores y sesgos permanecen ocultos en modelos opacos, minando la confianza y el cumplimiento.

Lo que los líderes fintech deben saber

Una encuesta de Deloitte encontró que el 80% dice que sus juntas directivas tienen poca o ninguna experiencia con IA. Pero los ejecutivos de la alta dirección no pueden permitirse tratar la IA como un problema del equipo técnico. La responsabilidad de la IA recae en el liderazgo, por lo que los líderes fintech deben mejorar sus habilidades.

Fluidez analítica transversal

Antes de implementar IA, los líderes fintech deben ser capaces de cambiar de perspectiva—analizando los números, el caso de negocio, las operaciones y la ética—y ver cómo esos factores se superponen y configuran los resultados de la IA. Deben entender cómo la precisión estadística de un modelo se relaciona con la exposición al riesgo crediticio. Y reconocer cuándo una variable que parece financieramente sólida (como el historial de pagos) puede introducir riesgos sociales o regulatorios a través de su correlación con una clase protegida, como edad o etnia.

Esta fluidez en IA proviene de sentarse con oficiales de cumplimiento para analizar regulaciones, hablar con gerentes de producto sobre la experiencia del usuario y revisar los resultados del modelo con científicos de datos para detectar signos de deriva o sesgo.

En fintech, evitar el 100% del riesgo es imposible, pero con fluidez analítica transversal, los líderes pueden identificar qué riesgos vale la pena asumir y cuáles erosionarán el valor para los accionistas. Esta habilidad también agudiza la capacidad del líder para detectar y actuar frente a sesgos, no solo desde el punto de vista del cumplimiento, sino también desde una perspectiva estratégica y ética.

Por ejemplo, si un modelo de puntuación crediticia impulsado por IA favorece claramente a un grupo de clientes, corregir ese desequilibrio no es solo una tarea de ciencia de datos; protege la reputación de la empresa. Para fintech comprometidas con la inclusión financiera o enfrentadas a escrutinio ESG, el cumplimiento legal no basta. El juicio implica saber qué es correcto, no solo qué está permitido.

Alfabetización en explicabilidad

La explicabilidad es la base de la confianza. Sin ella, los tomadores de decisiones, clientes y reguladores se quedan cuestionando por qué un modelo llegó a una conclusión específica.

Eso significa que los ejecutivos deben poder distinguir entre modelos interpretables y aquellos que necesitan explicaciones post-hoc (como valores SHAP o LIME). Deben hacer preguntas cuando la lógica de un modelo no sea clara y reconocer cuándo la “precisión” por sí sola no puede justificar una decisión de caja negra.

El sesgo no aparece de la nada; surge cuando los modelos se entrenan y despliegan sin supervisión suficiente. La explicabilidad da a los líderes la visibilidad para detectar esos problemas temprano y actuar antes de que causen daños.

La IA es como el piloto automático de un avión. La mayoría de las veces funciona sin problemas, pero cuando llega una tormenta, el piloto debe tomar el control. En finanzas, ese mismo principio se aplica. Los equipos necesitan la capacidad de detener operaciones, ajustar una estrategia o incluso cancelar un lanzamiento cuando cambian las condiciones. La explicabilidad funciona en conjunto con la capacidad de anular decisiones, asegurando que los líderes de la alta dirección entiendan la IA y mantengan el control, incluso cuando opera a gran escala.

Pensamiento probabilístico en modelos

Los ejecutivos están acostumbrados a decisiones deterministas, como si la puntuación de crédito está por debajo de 650, rechazar la solicitud. Pero la IA no funciona así y esto representa un cambio de paradigma mental importante.

Para los líderes, el pensamiento probabilístico requiere tres capacidades:

*   Interpretar rangos de riesgo en lugar de resultados binarios sí/no.
*   Comparar el nivel de confianza de una predicción con otras consideraciones comerciales o regulatorias.
*   Saber cuándo anular la automatización y aplicar el discrecional humano.

Por ejemplo, un modelo de IA probabilístico de una fintech puede marcar a un cliente como de alto riesgo, pero eso no significa necesariamente “rechazar”. Puede significar “investigar más” o “ajustar los términos del préstamo”. Sin este matiz, la automatización corre el riesgo de convertirse en un instrumento burdo, erosionando la confianza del cliente y exponiendo a la empresa a repercusiones regulatorias.

Por qué la capa de juicio definirá a los ganadores fintech

El futuro de fintech no será decidido por quién tenga los modelos de IA más potentes; sino por quién los use con el juicio más agudo. A medida que la IA se vuelve una commodity, las ganancias en eficiencia son la base. Lo que diferencia a los ganadores es la capacidad de intervenir cuando los algoritmos enfrentan incertidumbre, riesgo y zonas grises éticas.

La capa de juicio no es una idea abstracta. Se manifiesta cuando los ejecutivos deciden detener operaciones automatizadas, retrasar un lanzamiento o anular una puntuación de riesgo que no refleja el contexto real. Estos momentos no son fallos de la IA; son la prueba de que la supervisión humana es la última línea de creación de valor.

La alineación estratégica es donde el juicio se institucionaliza. Una estrategia sólida de IA no solo establece hojas de ruta técnicas; asegura que la organización revise iniciativas, actualice las capacidades de IA de los equipos, garantice que la empresa tenga la arquitectura de datos necesaria y vincule cada despliegue a un resultado comercial claro. En ese sentido, el juicio no es episódico, sino que está integrado en el modo operativo y permite a los ejecutivos impulsar un liderazgo basado en valores.

Las fintech necesitan líderes que sepan equilibrar la IA para velocidad y escala, y a los humanos para contexto, matices y visión a largo plazo. La IA puede detectar anomalías en segundos, pero solo las personas pueden decidir cuándo contrarrestar las matemáticas, repensar supuestos o tomar un riesgo audaz que abra la puerta al crecimiento. Esa capa de juicio es lo que convierte a la IA de una herramienta en una ventaja.

Sobre el autor:

Guillermo Delgado es Líder Global de IA en Nisum y COO de Deep Space Biology. Con más de 25 años de experiencia en bioquímica, inteligencia artificial, biología espacial y emprendimiento, desarrolla soluciones innovadoras para el bienestar humano en la Tierra y en el espacio.

Como consultor en estrategia corporativa, ha contribuido a la visión de la IA de la NASA para la biología espacial y ha recibido premios a la innovación. Tiene una Maestría en Ciencias en Inteligencia Artificial por Georgia Tech, obtenida con honores. Además, como profesor universitario, ha impartido cursos sobre aprendizaje automático, big data y ciencia genómica.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado