¿"Criar langostas", el sector bancario se niega a "seguir la tendencia"?

robot
Generación de resúmenes en curso

¿AI· Cómo equilibrar la innovación y la seguridad en la aplicación de agentes inteligentes en bancos del futuro?

Recientemente, el agente inteligente de código abierto OpenClaw ha generado una amplia atención en la industria. Su nombre proviene del icono de una langosta roja, y su despliegue y uso local se denomina “criar langostas”.

Lo más atractivo de “criar langostas” es su capacidad para ejecutar tareas complejas de forma autónoma, lo que abre nuevas posibilidades para mejorar la eficiencia laboral. Según se informa, OpenClaw puede integrar y llamar a software de comunicación y grandes modelos de IA, realizando de forma autónoma en computadoras locales tareas como gestión de archivos, envío y recepción de correos, procesamiento de datos, entre otras, y ha sido muy popular por su flexible modo de despliegue y capacidad de ejecución autónoma.

Actualmente, ¿cómo ven los bancos la adopción de “criar langostas”? ¿Se desplegará y promoverá a gran escala en el futuro?

Una entrevista con periodistas del Financial Times revela que, por ahora, ninguna entidad bancaria ha implementado OpenClaw a nivel de toda la institución.

“En escenarios fuera del negocio bancario, experimentar con ‘criar langostas’ en la vida cotidiana debería estar permitido, pero si se conecta a la intranet del banco, no se permite”, afirmó un empleado de una sociedad anónima bancaria.

Se sabe que algunas instituciones bancarias han emitido advertencias internas de riesgo, prohibiendo a los empleados construir o desplegar OpenClaw durante sus tareas. También hay bancos que realizan autoevaluaciones internas de riesgos, estableciendo líneas rojas para su uso.

Por ahora, la actitud general del sector bancario hacia OpenClaw es cautelosa, prohibiendo su despliegue en escenarios de negocio críticos y manteniendo la seguridad y cumplimiento de datos financieros como prioridad.

“OpenClaw tiene permisos elevados por defecto y configuraciones de seguridad débiles, lo que facilita que atacantes lo exploten para robar datos sensibles o manipular transacciones ilegalmente. Esto entra en conflicto con los altos requisitos de seguridad y cumplimiento del sector bancario”, afirmó Tian Lihui, profesor de Finanzas en la Universidad de Nankai, en una entrevista con el Financial Times. La postura prudente del sector refleja su exigencia máxima en seguridad y cumplimiento.

Los riesgos de seguridad potenciales de “criar langostas” también han sido altamente valorados por las autoridades relevantes.

El 11 de marzo, la plataforma de intercambio de información sobre amenazas y vulnerabilidades de ciberseguridad del Ministerio de Industria e Información Tecnológica publicó las “Seis recomendaciones de qué hacer y qué no hacer para prevenir riesgos de seguridad de OpenClaw (langosta)”, destacando que su uso en escenarios de transacciones financieras puede provocar errores en las operaciones o incluso el secuestro de cuentas. La Asociación de Finanzas en Internet de China también emitió advertencias de riesgo, señalando los peligros en el ámbito financiero.

Luo Feipeng, investigador del Banco de Ahorro Postal de China, expresó que la ambigüedad en la definición de responsabilidades y cumplimiento aumenta las preocupaciones del sector bancario. “Actualmente, no existe una normativa unificada para el uso de agentes de IA en el sector financiero, y las capacidades autónomas de OpenClaw dificultan delimitar claramente las responsabilidades entre máquinas y humanos.”

De hecho, a partir del caso de “criar langostas”, el tema de los límites en la aplicación de IA en el sector financiero merece atención y discusión. La postura cautelosa de los bancos no significa un rechazo a la tecnología, sino un análisis específico según las características del sector, buscando equilibrar desarrollo y seguridad, y avanzar en la exploración.

El 11 de marzo, la Conferencia de Trabajo en Tecnología de 2026 del Banco Popular de China estableció que para 2026 se profundizará la integración de tecnología y negocio, promoviendo de manera segura y ordenada la aplicación de inteligencia artificial en el sector financiero, impulsando el desarrollo digital e inteligente.

Expertos del sector señalan que la exploración del uso de agentes de IA en bancos nunca se detuvo. Actualmente, ya existen aplicaciones en escenarios de bajo riesgo como asistencia en atención al cliente, búsqueda de documentos políticos y generación de actas de reuniones.

Tian Lihui opina que en el futuro, los bancos deben explorar con cautela la aplicación de agentes de IA. “Esto requiere validación en pequeña escala. Es necesario realizar profundas modificaciones y despliegues privatizados del modelo, establecer un sistema de gobernanza de IA completo y garantizar la seguridad de los datos desde el origen. Cuando la tecnología madure y los estándares sectoriales sean claros, se podrá evaluar con prudencia la expansión hacia áreas críticas.”

Luo Feipeng sostiene que los bancos deben seguir principios de cautela, comenzar con pilotos en escenarios de bajo riesgo, verificar resultados y luego ampliar gradualmente; además, deben establecer sistemas de seguridad de datos en todo el proceso, usando técnicas de desidentificación y cifrado, y definir claramente los límites en el uso de datos.

Fuente: Cliente del Financial Times

Reportero: Zhao Meng

Editor: Liu Nengjing

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado