La IA en Cumplimiento No Es una Caja Negra — Es una Prueba de Responsabilidad: Entrevista con Roman Eloshvili

Roman Eloshvili es un fundador de ComplyControl, una startup de detección de fraudes y cumplimiento impulsada por IA para instituciones financieras.


¡Descubre las principales noticias y eventos de fintech!

Suscríbete al boletín de FinTech Weekly

Leen ejecutivos en JP Morgan, Coinbase, Blackrock, Klarna y más


Lo que realmente se está probando con la IA en cumplimiento: ¿tecnología o nosotros?

En los servicios financieros, el cumplimiento ya no es solo una función. Es un punto de presión activo—donde la regulación, el riesgo y las operaciones se encuentran. A medida que se introducen tecnologías de IA en este ámbito, una pregunta no deja de volver: ¿cuánto podemos automatizar realmente y quién sigue siendo responsable cuando algo sale mal?

El atractivo de la IA en la detección de fraudes y el cumplimiento es fácil de entender. Las instituciones financieras enfrentan expectativas crecientes para procesar grandes cantidades de datos, responder a amenazas en evolución y cumplir con regulaciones cambiantes—todo sin comprometer la velocidad ni la precisión. La automatización, en particular cuando está impulsada por aprendizaje automático, ofrece una manera de reducir la carga operativa. Pero también plantea preocupaciones más profundas sobre la gobernanza, la explicabilidad y el control.

Estas tensiones no son teóricas. Se están desarrollando en tiempo real, mientras las firmas financieras implementan modelos de IA en roles que tradicionalmente ocupaban analistas humanos. Detrás de escena, están emergiendo nuevos riesgos: falsos positivos, puntos ciegos en auditorías y decisiones algorítmicas que siguen siendo opacas tanto para usuarios como para reguladores.

Al mismo tiempo, se les está pidiendo a los profesionales de cumplimiento que cambien de funciones. En lugar de inspeccionar manualmente cada transacción, ahora están supervisando las herramientas que lo hacen. Este replanteamiento—de ejecutor a evaluador—requiere no solo nuevas habilidades técnicas, sino un sentido más sólido de responsabilidad ética y procedimental. La IA puede escalar el análisis de datos. Puede detectar inconsistencias. Pero no puede explicar completamente la intención, interpretar el contexto ni asumir la culpa.

Comprender estos límites es fundamental. Y pocas personas están mejor posicionadas para explorar eso que Roman Eloshvili, fundador de la empresa británica de tecnología de cumplimiento ComplyControl. Su trabajo se sitúa firmemente en la intersección entre riesgo, automatización y supervisión—donde la eficiencia algorítmica se encuentra con el escrutinio regulatorio.

Con más de una década en el sector, Roman ha visto de primera mano cómo los equipos de cumplimiento están evolucionando y cómo la IA está reconfigurando tanto sus flujos de trabajo como sus responsabilidades. Sostiene que la promesa de la IA no está en eliminar roles humanos, sino en transformarlos—aportando nueva claridad sobre lo que las máquinas deberían manejar y lo que los humanos aún deben asumir.

Este cambio exige más que mejoras técnicas. Requiere una realineación cultural en torno a la rendición de cuentas. Los sistemas transparentes, los procesos auditablemente trazables y la responsabilidad humana claramente asignada ya no son solo funciones—son el estándar mínimo. Cuando se introduce la IA en infraestructura crítica, no solo resuelve problemas. Introduce una nueva categoría de decisiones que requiere una supervisión activa y estratégica.

En esta conversación para FinTech Weekly, Roman ofrece una visión fundamentada de lo que se necesita para integrar la IA de manera responsable en el cumplimiento y la prevención de fraudes. Su perspectiva no plantea la automatización como una inevitabilidad, sino como una elección—una que exige un juicio humano continuo, claridad operativa y una disposición a hacer preguntas difíciles sobre dónde reside realmente la confianza.

Nos complace compartir sus ideas en un momento en el que muchos en fintech están preguntando no si deben adoptar IA, sino cómo hacerlo sin perder de vista los estándares que hicieron que los sistemas financieros funcionaran en primer lugar.


1. Has construido una carrera en la intersección de cumplimiento y tecnología. ¿Puedes recordar el momento en que te diste cuenta de que la IA podría cambiar fundamentalmente la forma en que se gestiona el riesgo?

No diría que fue solo un momento específico el que cambió todo. Más bien, fue un proceso extendido. Había pasado una buena parte de mi carrera trabajando con bancos europeos establecidos, y una cosa que seguía notando es que muchos estaban muy por detrás cuando se trataba de soluciones de banca digital. El contraste era especialmente claro frente a centros fintech más avanzados.

Varios años atrás, cuando el tema del desarrollo de IA volvió a calentarse, naturalmente me volví curioso y me puse a investigarlo. Y mientras estudiaba la tecnología y su funcionamiento, me di cuenta de que la inteligencia artificial tiene el potencial de cambiar drásticamente la manera en que los bancos gestionan su cumplimiento, poniéndolos más a la par con actores fintech modernos y más ágiles.

Eso es lo que me llevó a lanzar mi empresa en 2023. La complejidad del cumplimiento y la gestión del riesgo no deja de crecer año tras año. Ante esta realidad, nuestra misión es sencilla: llevar soluciones impulsadas por IA a las empresas financieras y ayudarlas a afrontar de manera más efectiva desafíos tan crecientes.

2. Desde tu perspectiva profesional, ¿cómo ha evolucionado el papel de los especialistas humanos a medida que las herramientas de IA se han vuelto más avanzadas en el cumplimiento y la detección de fraudes?

Antes de decir cualquier otra cosa, permíteme abordar algo directamente desde el principio. Hay una preocupación común en muchos ámbitos sobre si la IA va a reemplazar a los trabajadores humanos. Y en cuanto a los profesionales de cumplimiento y riesgo se refiere, mi respuesta es no — al menos, no en un futuro cercano.

Aunque la inteligencia artificial ya está transformando nuestra industria, está lejos de ser infalible. Por eso, la participación humana sigue siendo un factor esencial. Las regulaciones de cumplimiento cambian constantemente, y alguien tiene que poder asumir la responsabilidad cuando los sistemas se queden atrás o cometan errores. En su nivel de desarrollo actual, la IA aún tiene dificultades para explicar claramente sus decisiones, así que no está lista para quedarse por su cuenta. Especialmente no en un campo donde la confianza y la transparencia son máximas prioridades.

Dicho esto, la IA está haciendo activamente más fáciles los procesos de cumplimiento. Por ejemplo, dependiendo de la configuración, los sistemas de IA ahora pueden marcar transacciones sospechosas o incluso bloquearlas temporalmente mientras solicitan una verificación adicional. No hace falta que personas reales revisen cada detalle a mano, a menos que algo se destaque genuinamente como extraño. Y a medida que estos sistemas evolucionan, seguirán reduciendo la necesidad de trabajo manual, permitiendo que los equipos se centren más en tareas matizadas que realmente requieren el toque humano.

Creo que vamos a ver el auge de un modelo híbrido, donde los expertos en cumplimiento también se volverán cada vez más competentes en el uso de herramientas de IA. Ellos serán quienes implementen y mantengan los sistemas de IA, mientras que la propia IA simplificará su trabajo al dar sentido a datos complejos y proporcionar recomendaciones. Sin embargo, el juicio final seguirá en manos de los humanos.

3. Cuando trabajas con IA en áreas sensibles como el cumplimiento financiero, ¿cómo has abordado personalmente el desafío de mantener la confianza y la rendición de cuentas en la toma de decisiones?

Por supuesto. Como ya mencioné, cuando estás usando IA en cumplimiento, la confianza es crucial.

Por eso hemos construido nuestros sistemas de IA para que sean totalmente transparentes. No operan como una “caja negra”—cada recomendación que hace el sistema se basa en reglas y datos trazables. Mantenemos un rastro de auditoría completo de cómo se toma cada decisión, para que pueda explicarse completamente. Esta práctica ya ha demostrado ser increíblemente valiosa al tratar con reguladores.

La decisión final siempre recae en el oficial de cumplimiento. La IA simplemente ofrece una sugerencia bien justificada que el humano puede revisar fácilmente y decidir si la aprueba o la rechaza.

4. Tu experiencia abarca más de 10 años. ¿Cómo ha cambiado tu mentalidad sobre la automatización y la supervisión humana a lo largo de tu carrera, especialmente ahora que la IA se está volviendo más autónoma?

Definitivamente. Hablando de manera más amplia sobre el estado de adopción de la IA, a medida que esta tecnología progresa, le permitimos gradualmente más autonomía—siempre que esté exhaustivamente probada y siga demostrando ser fiable.

Pero lo que cambia aún más es la parte que juega el especialista humano en esta ecuación. En lugar de microgestionar cada caso, los oficiales de cumplimiento ahora están desempeñando cada vez más el papel de supervisores estratégicos. Pueden revisar lotes completos de casos similares en poco tiempo, validar el rendimiento del sistema y ajustar finamente los modelos en función de los resultados.

En otras palabras, el papel de facto de los oficiales de cumplimiento está pasando de realizar el trabajo a mano hacia gestionar los sistemas de IA mientras estos lo hacen por ellos.

5. Trabajar en la gestión de riesgos impulsada por IA significa navegar preguntas éticas complejas. ¿Cómo has desarrollado personalmente un marco para tomar decisiones responsables al diseñar o implementar soluciones basadas en IA?

Hemos construido nuestro enfoque alrededor de dos ideas clave: una supervisión clara y los principios de IA Responsable. Cada modelo que usamos tiene a alguien asignado como responsable del mismo. Las evaluaciones de riesgo, las revisiones de desempeño y las verificaciones de cumplimiento se realizan de forma regular.

También nos aseguramos de que nuestros sistemas sean auditables. Si el algoritmo toma una decisión, ese proceso puede revisarse y verificarse. Esta transparencia es una parte central de nuestro compromiso con el desarrollo responsable de IA.

6. En tu trayectoria, ¿cuál ha sido la lección profesional más difícil que has aprendido sobre los límites—o los riesgos—de depender demasiado de la automatización en campos críticos como la prevención de fraudes?

Una lección que definitivamente necesitamos tener en mente es que incluso los modelos bien entrenados aún pueden “alucinar”—pueden equivocarse de formas sutiles pero serias.

La IA puede pasar por alto esquemas complejos de fraude, o podría activar demasiadas alertas falsas. Por eso es tan importante combinar la IA con la experiencia humana—los humanos aportan un juicio fluido y son mejores para evaluar la ética y el contexto general de maneras que la IA no puede.

El equilibrio entre las dos promesas da mejores resultados, más fiables. La IA se puede usar para cubrir la enorme cantidad de tareas y facilitar su complejidad, mientras que las personas, a su vez, se usan para mantener el nivel adecuado de precisión y confianza.

7. Para los jóvenes profesionales que entran hoy en cumplimiento, gestión de riesgos o desarrollo de IA, ¿qué principios personales o hábitos les aconsejarías cultivar para tener éxito y adaptarse en un entorno que cambia tan rápidamente?

Primero y ante todo: no dejes de aprender. El progreso tecnológico no tiene un botón de “pausa”, y necesitas mantenerte al día o te quedas atrás. No hay un punto intermedio aquí.

Segundo, piensa de forma amplia. Con el avance de la IA, las líneas entre roles se están difuminando—tecnología, finanzas y regulación se están convirtiendo en una mezcla. Estoy convencido de que tener un conjunto amplio de habilidades y una mentalidad abierta serán las características definitivas para los futuros profesionales del sector.

Tercero —y una continuación natural de las dos anteriores—, sé adaptable. El cambio es constante, y la capacidad de ajustar rápidamente será una gran ventaja para ti.

Y finalmente, desarrolla habilidades sólidas de comunicación y aprende a ser un jugador de equipo. Como ya cubrimos, el cumplimiento está en la intersección entre negocio, tecnología y derecho. Por eso, poder cambiar de marcha y hablar con personas de todos esos mundos será una habilidad valiosa para adquirir.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado