El mundo financiero se abstiene de "criar langostas"

“¿Estás criando langostas?” Recientemente, en toda la red se ha desatado una locura por OpenClaw “langosta”, desde la mejora de eficiencia en el ámbito personal hasta la automatización de procesos en empresas, esta inteligencia artificial de código abierto casi ha invadido todas las aplicaciones tecnológicas e incluso escenarios sociales, aunque en el sector financiero no es tan claro.

El 10 de marzo, ante la fiebre de “criar langostas” a nivel nacional y la posible estrategia de Open-Claw, periodistas del Beijing Business entrevistaron a varias instituciones bancarias, compañías de consumo financiero y plataformas de pago, la mayoría expresó que “está demasiado en auge, hay que observar primero”, y algunos incluso señalaron que OpenClaw no es compatible con las finanzas, especialmente por los riesgos de seguridad de datos involucrados. Los expertos consideran que, en esta “fiebre de criar langostas”, los bancos en línea y las compañías de consumo financiero no han seguido la tendencia, y los equipos técnicos de las plataformas de pago permanecen inactivos, debido a consideraciones importantes sobre la seguridad de fondos, datos e información.

Calma colectiva

“La fiebre de criar langostas” en el sector financiero ha quedado en silencio. “Debido a los estrictos requisitos de confidencialidad en la industria financiera, esta aplicación de IA puede presentar riesgos de seguridad de datos e información”, expresó un empleado de una compañía de consumo financiero.

“Tiene cierto valor, pero en las áreas clave del negocio de consumo financiero siempre enfrenta múltiples riesgos. Por ejemplo, en cumplimiento, los agentes inteligentes de código abierto difícilmente cumplen con los requisitos regulatorios en control de riesgos y otras funciones centrales; además, en seguridad, los agentes de código abierto pueden provocar riesgos de filtración de información”, añadió otro empleado del mismo sector.

En resumen, la principal razón radica en la regulación estricta y los altos riesgos inherentes en la industria financiera.

Para las compañías de consumo financiero, si utilizan agentes de IA para gestionar de forma autónoma procesos como la concesión de créditos, aprobación de riesgos y desembolso, la eficiencia puede duplicarse. Pero, ¿cómo se responsabiliza en caso de sobrecréditos, errores en la concesión o filtración de información? ¿Quién asume los riesgos? Este es el mayor peligro, la confrontación natural entre la autonomía tecnológica y los requisitos de cumplimiento y seguridad del sector financiero.

“Es una zona peligrosa”, afirmó un empleado del sector financiero, quien agregó que nadie quiere arriesgarse a tocar la línea de seguridad y datos solo por experimentar con la tecnología. “Pero OpenClaw está muy en auge, quizás demasiado, todavía hay que observar su valor con más calma”. También mencionaron que, en el corto plazo, el sector financiero prefiere mantener una postura prudente, aunque no descartan una penetración escalonada.

Las plataformas de pago están aún más preocupadas. Cada transacción implica la seguridad del dinero, y no se puede permitir ni un ápice de “caja negra” en los algoritmos. Yu Chen, cofundador de Yeepay, en una entrevista con el Beijing Business, afirmó que la tendencia de los agentes inteligentes de código abierto impulsada por OpenClaw representa un paso del diálogo con IA hacia la ejecución autónoma, lo cual tiene valor, pero la compañía mantiene una actitud cautelosa y abierta a observar y probar con prudencia. La ejecución autónoma, la apertura de permisos y los límites de cumplimiento y control de riesgos tienen conflictos naturales, por lo que el sector financiero debe priorizar la seguridad y el control.

En los bancos, un empleado de primera línea comentó: “Actualmente, no hay muchos en nuestro banco que usen OpenClaw. Para nosotros, OpenClaw es como un software de IA con permisos elevados, capaz de autorizar operaciones en la computadora y ejecutar instrucciones directamente. Nosotros, en primera línea, no usamos estas funciones, probablemente solo el departamento técnico realiza pruebas limitadas”.

Un responsable del departamento de negocios bancarios afirmó que estos productos de código abierto requieren control remoto mediante dispositivos móviles para gestionar los terminales PC, y aunque afirman que la información está aislada, los bancos siguen siendo muy cautelosos y no los usan directamente.

Menor compatibilidad

Desde la perspectiva del sector financiero, Yu Chen opina que el mayor valor de los agentes inteligentes de código abierto radica en automatizar procesos, mejorar la eficiencia, liberar a las personas del trabajo repetitivo y reducir costos, pero también conlleva riesgos como decisiones autónomas inexplicables e incontrolables, además de peligros en la seguridad de datos y operaciones fuera de autoridad, que tocan directamente los límites regulatorios del sector financiero.

“Creo que para uso personal o en tareas administrativas está bien, pero en negocios hay muchas trampas, como riesgos en la seguridad de datos y fondos”, comentó otro empleado de una compañía de pagos. En su opinión, los controles en riesgos ya son bastante sólidos en los procesos de pago, y experimentar con estos agentes de IA sin cautela puede ser peligroso. “Si hay un problema de compatibilidad, podría interrumpir transacciones o causar errores en la liquidación de fondos, con consecuencias impredecibles”.

Un representante de una cooperativa de crédito local explicó: “Para los bancos, la prioridad en la construcción tecnológica siempre es la seguridad y el cumplimiento”. Actualmente, las principales preocupaciones sobre la implementación de proyectos de código abierto en bancos se centran en dos aspectos: primero, los riesgos de seguridad de datos, ya que el código abierto puede tener vulnerabilidades y puertas traseras difíciles de detectar, lo que aumenta el riesgo de filtraciones; segundo, los riesgos en el control de operaciones, ya que, aunque los proveedores afirmen que la información está aislada, cualquier control que involucre múltiples dispositivos o redes puede ser vulnerable a secuestros, capturas de pantalla, grabaciones o acciones fuera de autoridad, lo cual viola las “líneas rojas” de seguridad financiera, por lo que los bancos no arriesgarán su uso.

Los expertos consideran que, como sector altamente regulado y de alto riesgo, la industria financiera debe mantener una postura de alta restricción. Shen Xiayi, subdirector del Instituto de Investigación de Valores de la Reserva Federal, explica que la particularidad del sector radica en que sus funciones centrales involucran la seguridad de fondos, la privacidad de los clientes y riesgos sistémicos. Cualquier innovación tecnológica debe basarse en un control de riesgos, y no puede seguir el modelo de “iteraciones rápidas y prueba y error” del sector de internet.

Para Shen, actualmente, la compatibilidad de OpenClaw con las finanzas sigue siendo baja. Por un lado, su capacidad de automatización de extremo a extremo entra en conflicto con los requisitos regulatorios, por problemas como límites de responsabilidad poco claros y poca explicabilidad de los algoritmos, dificultando su cumplimiento en áreas como crédito, control de riesgos y liquidación de fondos. Por otro lado, las altas exigencias en seguridad de datos y estabilidad operativa, junto con vulnerabilidades en algunos ejemplos de OpenClaw y riesgos en mercados de habilidades de terceros, limitan su uso a escenarios no críticos en las instituciones financieras, sin poder acceder aún a áreas clave como concesión de créditos, control de riesgos y liquidación de fondos. La adaptación general requiere una optimización a largo plazo.

No rechazo total

Es importante notar que la “calma” del sector financiero no significa rechazo a la IA, sino rechazo a seguir ciegamente la tendencia. Un empleado de un banco comentó que la ola de agentes inteligentes de código abierto en IA es, en esencia, una transformación del paradigma de aplicación de IA a nivel masivo. Los modelos grandes ya han superado un umbral, y el mercado necesita esta ola para que los usuarios comprendan que la IA ya no es solo una herramienta auxiliar o un “consultor” que da recomendaciones, sino un “aprendiz” que puede realizar tareas concretas.

Este empleado afirmó que este paradigma de IA como OpenClaw es una tendencia inevitable en el desarrollo tecnológico futuro. Para el sector financiero, no se trata de “no usar” o “no ser adecuado en este momento”, sino de cómo usarlo con cautela y paso a paso. La moderación de las instituciones financieras responde más al respeto por la regulación y los riesgos que a una aversión a la tecnología.

A corto plazo, el mayor valor de los agentes de código abierto radica en mejorar significativamente la eficiencia de los servicios financieros y reducir costos operativos, haciendo los servicios más inclusivos. A largo plazo, estos agentes con capacidad de ejecución autónoma podrían transformar los modelos de negocio del sector, generando valor adicional y nuevas oportunidades de mercado.

Pero los riesgos no deben subestimarse. Como añadió un empleado del sector, en cuanto a cumplimiento, seguridad e inversión, las instituciones financieras tienen preocupaciones, y el mayor riesgo puede estar en la aplicación misma. La popularización de la inteligencia artificial reduce las barreras para ejecutar muchas tareas, lo cual puede ser positivo para crear valor, pero también puede facilitar comportamientos maliciosos. Por ello, es imprescindible fortalecer la conciencia de gestión de riesgos y prepararse con anticipación.

En realidad, varias instituciones ya están explorando de forma discreta la personalización y el desarrollo en IA. En los bancos, por ejemplo, se han enfocado en la gestión de riesgos post-crédito, atención al cliente y telemarketing, además de explorar aplicaciones en aprobación de créditos, operaciones diarias y cumplimiento. “Para que la IA de código abierto realmente entre en escenarios críticos financieros, primero hay que resolver los problemas de seguridad y cumplimiento”, afirmó. En su opinión, en la etapa actual y en el futuro cercano, la responsabilidad en las decisiones clave debe seguir siendo humana, con control estricto por parte de profesionales.

Por otro lado, la integración de múltiples agentes y supervisión humana será la tendencia tecnológica futura. Además, las instituciones deben establecer sistemas de gobernanza de IA, incluyendo inventarios de activos, evaluación de riesgos y controles en todo el ciclo de vida, para garantizar un uso seguro y conforme.

En cuanto a la aplicación de herramientas de código abierto en bancos en los próximos cinco a diez años, varios expertos coinciden en que solo en condiciones de protección absoluta de datos personales, control total de la tecnología y riesgos gestionables, los bancos podrán explorar de manera limitada estas herramientas. También señalan que, en el marco normativo, se deben establecer regulaciones específicas para el uso de herramientas de código abierto en finanzas, delimitando claramente su alcance, estándares de seguridad y responsabilidades, para ofrecer directrices claras y seguras. Desde el punto de vista técnico, el ecosistema de código abierto debe contar con soluciones maduras a nivel financiero, con monitoreo y reparación de vulnerabilidades en tiempo real, soporte para la adaptación local y control tecnológico autónomo, asegurando que su uso no afecte la estabilidad y seguridad del sistema bancario.

El Beijing Business reportó que, en línea con las tendencias del sector y los requisitos regulatorios, en los próximos cinco a diez años, solo si se garantiza una protección absoluta de la información personal, control completo de la tecnología y gestión de riesgos, los bancos podrán explorar con moderación las herramientas de código abierto. Además, algunos bancos consideran que la exploración debe cumplir con condiciones claras, incluyendo la emisión de normativas específicas para el uso de herramientas de código abierto en finanzas, delimitando su alcance, estándares de seguridad y responsabilidades, para ofrecer directrices claras y seguras. También sugieren que la comunidad de código abierto en finanzas debe desarrollar soluciones maduras, con monitoreo en tiempo real y capacidades de reparación rápida, además de soportar la adaptación local y el control autónomo, para garantizar la estabilidad y seguridad del sistema.

En conclusión, la prudencia del sector financiero no implica rechazo a la IA, sino una actitud cautelosa y gradual, priorizando la seguridad, el cumplimiento y la gestión de riesgos, con un enfoque en escenarios no críticos y en la integración de múltiples agentes y supervisión humana.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado