Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
La capa de juicio: por qué la IA no es inteligente hasta que los líderes sean más inteligentes
Guillermo Delgado Aparicio es el Líder Global de IA en Nisum.
Descubre las principales noticias y eventos de fintech
Suscríbete al boletín de FinTech Weekly
Leído por ejecutivos en JP Morgan, Coinbase, Blackrock, Klarna y más
La IA en fintech abarca una variedad de casos de uso, desde la detección de fraude y el trading algorítmico hasta el scoring crediticio dinámico y las recomendaciones personalizadas de productos. Sin embargo, un informe de la Financial Conduct Authority halló que, de las 75% de las empresas que usan IA, solo 34% saben cómo funciona.
El problema no es solo la falta de conciencia. Es una comprensión profundamente errónea del poder y el alcance del análisis de datos, la disciplina de la que surge la IA. La adopción masiva de herramientas de IA generativa ha llevado el tema al nivel C-suite. Pero muchos de quienes deciden cómo implementar la IA no entienden sus principios subyacentes de cálculo, estadística y algoritmos avanzados.
Toma la Ley de Benford, un principio estadístico simple que detecta el fraude al identificar patrones en los números. La IA se basa en ese mismo tipo de matemáticas, solo que escalado a millones de transacciones a la vez. Si quitamos el bombo, la base sigue siendo estadística y algoritmos.
Por eso la alfabetización en IA a nivel C importa. Los líderes que no pueden distinguir dónde termina el análisis y dónde empieza corren el riesgo de sobreconfiar en sistemas que no comprenden o de subutilizarlos por miedo. Y la historia muestra qué sucede cuando los responsables de la toma de decisiones interpretan mal la tecnología: los reguladores intentaron prohibir las llamadas internacionales de IP, solo para ver cómo la tecnología superaba las reglas. La misma dinámica se está dando con la IA. No puedes bloquearla ni adoptarla a ciegas; necesitas criterio, contexto y la capacidad de orientarla de manera responsable.
Los líderes de fintech deben cerrar estas brechas para usar la IA de forma responsable y efectiva. Eso significa entender dónde termina el análisis y dónde empieza la IA, desarrollar las habilidades para dirigir estos sistemas y aplicar un criterio sólido para decidir cuándo y cómo confiar en su salida.
Los límites, puntos ciegos e ilusiones de la IA
El análisis analiza datos pasados y presentes para explicar qué pasó y por qué. La IA crece a partir de esa base, usando análisis avanzado para predecir qué pasará a continuación y, cada vez más, para decidir o actuar automáticamente sobre ello.
Con sus habilidades excepcionales de procesamiento de datos, es fácil ver por qué los líderes de fintech verían la IA como su bala mágica. Pero no puede resolver todos los problemas. Los humanos todavía tienen una ventaja innata en el reconocimiento de patrones, especialmente cuando los datos están incompletos o “sucios”. La IA puede tener dificultades para interpretar matices contextuales que los humanos captan rápidamente.
Sin embargo, es un error pensar que los datos imperfectos hacen que la IA sea inúsel. Los modelos analíticos pueden funcionar con datos incompletos. Pero saber cuándo implementar IA y cuándo confiar en el criterio humano para llenar los vacíos es el verdadero desafío. Sin esta supervisión cuidadosa, la IA puede introducir riesgos significativos.
Uno de esos problemas es el sesgo. Cuando los fintech entrenan IA con conjuntos de datos antiguos, a menudo heredan el “equipaje” que viene con ellos. Por ejemplo, el nombre de pila de un cliente puede servir sin querer como un proxy de género, o pistas inferidas por el apellido sobre la etnicidad, inclinando los scores crediticios de maneras que ningún regulador aprobaría. Estos sesgos, fácilmente ocultos en las matemáticas, a menudo requieren supervisión humana para detectarlos y corregirlos.
Cuando los modelos de IA se exponen a situaciones para las que no fueron entrenados, esto puede causar deriva del modelo. La volatilidad del mercado, los cambios regulatorios, la evolución de los comportamientos de los clientes y los cambios macroeconómicos pueden afectar la efectividad de un modelo sin que haya monitoreo humano y recalibración.
La dificultad para recalibrar algoritmos aumenta de forma drástica cuando los fintech usan cajas negras que no permiten visibilidad sobre la relación entre variables. En estas condiciones, pierden la posibilidad de transferir ese conocimiento a los responsables de la toma de decisiones en la gerencia. Además, los errores y los sesgos permanecen ocultos en modelos opacos, socavando la confianza y el cumplimiento.
Lo que los líderes de fintech necesitan saber
Una encuesta de Deloitte encontró que el 80% dice que sus juntas tienen poca o ninguna experiencia con IA. Pero los ejecutivos del C-suite no pueden permitirse tratar la IA como un “problema del equipo de tecnología”. La rendición de cuentas sobre la IA recae en el liderazgo, lo que significa que los líderes de fintech necesitan perfeccionar sus habilidades.
Fluidez analítica cruzada
Antes de implementar IA, los líderes de fintech necesitan poder cambiar de marcha—mirando las cifras, el caso de negocio, las operaciones y la ética—y ver cómo esos factores se solapan y dan forma a los resultados de la IA. Necesitan comprender cómo la exactitud estadística de un modelo se relaciona con la exposición al riesgo crediticio. Y reconocer cuándo una variable que parece sólida financieramente (como el historial de pago) puede introducir riesgo social o regulatorio a través de la correlación con una clase protegida, como la edad o la etnicidad.
Esta fluidez en IA proviene de sentarse con oficiales de cumplimiento para desglosar regulaciones, hablar con gerentes de producto sobre la experiencia del usuario y revisar los resultados del modelo con científicos de datos para detectar señales de deriva o sesgo.
En fintech, evitar el 100% de los riesgos es imposible, pero con fluidez analítica cruzada, los líderes pueden identificar qué riesgos vale la pena asumir y cuáles erosionarán el valor para los accionistas. Esta habilidad también afina la capacidad de un líder para detectar y actuar sobre el sesgo, no solo desde el punto de vista de cumplimiento, sino desde una perspectiva estratégica y ética.
Por ejemplo, supongamos que un modelo de scoring crediticio impulsado por IA se inclina fuertemente hacia un grupo de clientes. Corregir ese desequilibrio no es solo una tarea de ciencia de datos; protege la reputación de la empresa. Para los fintech comprometidos con la inclusión financiera o que enfrentan el escrutinio ESG, el cumplimiento legal por sí solo no es suficiente. El criterio significa saber qué es lo correcto, no simplemente qué está permitido.
Alfabetización en explicabilidad
La explicabilidad es la base de la confianza. Sin ella, los responsables de la toma de decisiones, los clientes y los reguladores quedan cuestionándose por qué un modelo llegó a una conclusión específica.
Eso significa que los ejecutivos deben poder distinguir entre modelos que son interpretables y aquellos que necesitan explicaciones post-hoc (como valores SHAP o LIME). Deben hacer preguntas cuando la lógica de un modelo no está clara y reconocer cuándo “exactitud” por sí sola no puede justificar una decisión de caja negra.
El sesgo no aparece de la nada; surge cuando los modelos se entrenan y se despliegan sin una supervisión suficiente. La explicabilidad le da a los líderes la visibilidad para detectar esos problemas temprano y actuar antes de que causen daños.
La IA es como el piloto automático en un avión. La mayor parte del tiempo funciona sin problemas, pero cuando entra una tormenta, el piloto tiene que tomar los controles. En finanzas, se aplica el mismo principio. Los equipos necesitan la capacidad de detener la negociación, ajustar una estrategia o incluso desconectar un lanzamiento de producto cuando cambian las condiciones. La explicabilidad funciona de la mano con la preparación para la anulación, lo que garantiza que los líderes del C-suite comprendan la IA y se mantengan al control, incluso cuando opera a escala.
Pensamiento de modelos probabilísticos
Los ejecutivos están acostumbrados a decisiones deterministas, como “si el score crediticio es inferior a 650, rechazar la solicitud”. Pero la IA no funciona así y esto supone un gran cambio de paradigma mental.
Para los líderes, el pensamiento probabilístico requiere tres capacidades:
Por ejemplo, el modelo probabilístico de IA de un fintech podría marcar a un cliente como de alto riesgo, pero eso no necesariamente significa “denegar”. Podría significar “investigar más” o “ajustar los términos del préstamo”. Sin este matiz, la automatización corre el riesgo de convertirse en un instrumento contundente, erosionando la confianza del cliente mientras expone a las empresas a una reacción regulatoria adversa.
Por qué la capa de criterio definirá a los ganadores en fintech
El futuro de fintech no lo decidirá quién tenga los modelos de IA más potentes; más bien, quién los use con el criterio más agudo. A medida que la IA se vuelve un commodity, las ganancias de eficiencia pasan a ser requisitos básicos. Lo que separa a los ganadores es la capacidad de intervenir cuando los algoritmos chocan con la incertidumbre, el riesgo y las zonas grises éticas.
La capa de criterio no es una idea abstracta. Se manifiesta cuando los ejecutivos deciden pausar la negociación automatizada, retrasar el lanzamiento de un producto o anular una puntuación de riesgo que no refleja el contexto del mundo real. Estos momentos no son fallas de la IA; son la prueba de que la supervisión humana es la línea final de creación de valor.
La alineación estratégica es donde el criterio se institucionaliza. Una estrategia sólida de IA no solo establece hojas de ruta técnicas; asegura que la organización revise iniciativas, actualice las capacidades de IA de los equipos, asegure que la empresa tenga la arquitectura de datos requerida y conecte cada despliegue con un resultado de negocio claro. En este sentido, el criterio no es episódico, sino que está integrado en el modo de operación y permite a los ejecutivos impulsar un enfoque de liderazgo basado en el valor.
Los fintech necesitan líderes que sepan cómo equilibrar la IA para la velocidad y la escala y a los humanos para el contexto, los matices y la visión de largo plazo. La IA puede detectar anomalías en segundos, pero solo las personas pueden decidir cuándo hacer una pausa y empujar en contra de las matemáticas, replantear supuestos o asumir un riesgo audaz que abra la puerta al crecimiento. Esa capa de criterio es lo que convierte la IA de una herramienta en una ventaja.
Sobre el autor:
Guillermo Delgado es el Líder Global de IA de Nisum y COO de Deep Space Biology. Con más de 25 años de experiencia en bioquímica, inteligencia artificial, biología espacial y emprendimiento, desarrolla soluciones innovadoras para el bienestar humano en la Tierra y en el espacio.
Como consultor de estrategia corporativa, ha contribuido a la visión de IA de NASA para la biología espacial y ha recibido premios de innovación. Tiene una Maestría en Ciencias en Inteligencia Artificial de Georgia Tech, obtenida con honores. Además, como profesor universitario, ha impartido cursos sobre aprendizaje automático, big data y ciencia genómica.