La ola de "criar camarones" en toda la red es arrolladora, pero la industria bancaria aplica colectivamente un "tratamiento frío" - Expertos: Los permisos de sistema de alto nivel de OpenClaw y la línea de cumplimiento normativo financiero entran en conflicto natural

robot
Generación de resúmenes en curso

Cada día, el periodista Li Yuwen Editor Zhang Yiming

Recientemente, el agente de inteligencia artificial de código abierto OpenClaw (también conocido como “Langosta”) ha causado gran revuelo, atrayendo la atención de muchas industrias, pero en el sector bancario la actitud general es de cautela respecto a esta ola de “crianza de langostas”. Según una fuente en la sede de un banco de acciones, la institución ha recibido recientemente una advertencia de riesgo por parte de los reguladores sobre “Langosta”.

Sin embargo, cabe señalar que, antes de que OpenClaw se popularizara, el sector bancario ya exploraba y aplicaba agentes inteligentes, promoviendo activamente su uso en escenarios de atención al cliente y otras áreas para mejorar la eficiencia operativa.

Como una institución que controla estrictamente los riesgos, ¿cómo puede el sector bancario equilibrar la innovación y la seguridad en la era de la inteligencia artificial?

Varias instituciones bancarias mantienen una postura cautelosa respecto a la ola de “crianza de langostas”

OpenClaw, cuyo icono se asemeja a una langosta roja, ha recibido el apodo de “Langosta”. El proceso de instalación y despliegue también se denomina de manera figurada como “crianza de langosta”. A diferencia de IA puramente conversacional como ChatGPT, OpenClaw integra llamadas a software de comunicación y modelos de lenguaje grande, permitiendo que en la computadora local del usuario ejecute tareas complejas como gestión de archivos, envío y recepción de correos, procesamiento de datos, etc., actuando como un “empleado digital” que realiza tareas en lugar del usuario, lo que ha atraído a muchos usuarios a experimentar con su aplicación práctica.

Con el continuo auge de OpenClaw, los problemas de seguridad se han vuelto cada vez más relevantes. Recientemente, el Ministerio de Industria y Tecnología de la Información y el Centro Nacional de Respuesta a Emergencias en Internet han emitido advertencias de riesgo, alertando a los usuarios sobre posibles riesgos de seguridad asociados con OpenClaw y recomendando un uso cauteloso.

En esta ola de “crianza de langostas”, el sector bancario parece bastante “frío”. Recientemente, una fuente en la industria informó que una sede de un banco de acciones recibió una advertencia de riesgo por parte de los reguladores sobre “Langosta”. Otro representante de un gran banco estatal también indicó a los periodistas de Cada día Económico que su institución aún no ha desplegado OpenClaw ni ha organizado capacitaciones al respecto.

¿Por qué el sector bancario mantiene una postura cautelosa respecto a OpenClaw?

“A diferencia de la IA conversacional, OpenClaw, como agente inteligente, necesita acceder a archivos locales, llamar a APIs externas e incluso obtener permisos a nivel del sistema. Este mecanismo de ejecución automática de extremo a extremo puede facilitar ataques cibernéticos y la filtración de datos de transacciones clave, lo cual no se alinea con la estricta regulación y tolerancia cero del sector bancario”, explicó Wang Peng, investigador asociado del Instituto de Ciencias Sociales de Beijing, en una entrevista con Cada día Económico el 16 de marzo.

Gao Chengfei, director general del departamento de IP de la consultora de marketing Zhaoyan, compartió una opinión similar: “Los altos permisos del sistema de OpenClaw entran en conflicto con los límites de cumplimiento financiero.”

Gao explicó que OpenClaw, por defecto, tiene permisos elevados para acceder a archivos locales y llamar a APIs, lo que puede mejorar la eficiencia en el trabajo, pero también ha expuesto varias vulnerabilidades de riesgo medio y alto, además de que los plugins funcionales carecen de mecanismos efectivos de auditoría de seguridad, lo que puede ser aprovechado maliciosamente para robar contraseñas bancarias en línea, claves de pago y otra información sensible. Más importante aún, su capacidad de ejecución autónoma puede causar errores en operaciones financieras como transferencias de fondos o compras de productos de inversión, y dado que la tecnología de IA aún no es completamente explicable, la responsabilidad por errores automáticos es difícil de determinar. Además, los datos generados durante la operación del agente inteligente pueden transmitirse a terceros, lo que plantea riesgos de cumplimiento en la gestión de datos sensibles como informes crediticios y materiales de aprobación de créditos.

Por ello, Gao considera que, a corto plazo, OpenClaw es más adecuado para pruebas en escenarios no críticos y de pequeña escala. Para una implementación a gran escala, es necesario resolver cuestiones clave como la seguridad y el control, la claridad en las responsabilidades y la explicabilidad de los algoritmos.

Desde la perspectiva de Wang Peng, los bancos no adoptarán directamente OpenClaw de código abierto, sino que integrarán sus rutas tecnológicas. Es probable que en el futuro se implemente principalmente en entornos “privados y limitados”, es decir, en redes internas del banco, mediante desarrollo propio o personalización, aplicándolo en automatización de oficinas, soporte en gestión de riesgos y otros escenarios no críticos y altamente sensibles.

El sector bancario ya está explorando agentes inteligentes

Cabe destacar que, incluso antes de que OpenClaw se popularizara, el sector bancario ya estaba investigando y aplicando agentes inteligentes. Se ha observado que varias instituciones están promoviendo activamente su uso en escenarios de atención al cliente y operaciones, para mejorar la eficiencia.

Por ejemplo, el Banco de Nanjing, en colaboración con Volcano Engine, está explorando la implementación a gran escala de agentes inteligentes en escenarios financieros, desplegando una estación de trabajo inteligente llamada HiAgent, con más de 20 agentes de alta calidad en áreas como oficina, operaciones, desarrollo de negocios y gestión de riesgos.

¿Y qué resultados ha tenido? Por ejemplo, los gerentes de clientes corporativos, antes de visitar empresas, suelen dedicar mucho tiempo a recopilar información de diferentes sistemas y plataformas. Sin embargo, un agente inteligente de una página puede integrar automáticamente datos de múltiples fuentes internas y externas, mediante procesos de captura, limpieza, fusión y verificación, generando rápidamente un informe de análisis previo a la visita, preciso y completo, reduciendo el tiempo de preparación de 2 horas a menos de 5 minutos, convirtiéndose en una herramienta clave en temporadas de alta demanda y marketing.

El informe de perspectivas del sector bancario en China 2026, publicado recientemente por KPMG, señala que, según análisis de licitaciones públicas y estudios de casos, desde enero hasta noviembre de 2025, los proyectos de modelos grandes en bancos han mostrado una tendencia ascendente, alcanzando un pico en agosto. En cuanto a los contenidos de los proyectos, de enero a junio predominaba la consulta de conocimientos, con aplicaciones de agentes inteligentes dispersas y ocasionales. A partir de julio, los proyectos de aplicación de agentes inteligentes crecieron exponencialmente, especialmente en octubre y noviembre, con todos los tipos de proyectos centrados en aplicaciones de agentes.

Entonces, ¿cómo deben los bancos equilibrar la innovación y la seguridad al explorar la aplicación de agentes inteligentes?

El 16 de marzo, el investigador especial del Banco de Comercio de Suzhou, Fu Yifu, en una entrevista con Cada día Económico, afirmó que, al promover la incorporación de agentes inteligentes en las operaciones de primera línea, los bancos deben innovar en sus mecanismos de gestión, realizar pruebas en entornos controlados y garantizar que los riesgos sean medibles y controlables. Además, deben fortalecer la protección de la privacidad de los datos y la auditoría de algoritmos, siguiendo el principio de “mínimos permisos” y evitando la recopilación excesiva de información de los clientes. Mantener una comunicación estrecha con los reguladores, participar en la formulación de estándares del sector y anticipar posibles líneas rojas regulatorias también es fundamental. Asimismo, los bancos deben establecer procesos de revisión humana para decisiones clave del agente, para evitar errores automáticos. Integrando los requisitos de cumplimiento en todo el proceso de desarrollo tecnológico y formando talentos multidisciplinarios, los bancos podrán liberar de manera segura el valor innovador de los agentes inteligentes.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado