【Tendencia de la época】 El modelo de inversión y investigación de AI en gestión de activos debe salir de la "trampa de la caja negra"

robot
Generación de resúmenes en curso

(Título original:【La brecha del tiempo】 El modelo de IA para gestión patrimonial e investigación debe salir de la “trampa de la caja negra”)

Jiang Guangxiang

A partir de 2026, el desarrollo de los agentes inteligentes de IA ha avanzado a pasos agigantados, impulsado por las “camarones de langosta” (apodo de OpenClaw para agentes inteligentes de IA). La ansiedad de quedarse atrás si no se cría uno es generalizada en la industria de gestión de activos, incluidos los fondos mutuos. El valor central de los agentes inteligentes de IA, representados por OpenClaw, consiste en colmar el “último kilómetro” desde los enormes volúmenes de datos hasta las aplicaciones reales de investigación y de inversión, permitiéndonos percibir de cerca la mejora extrema de la eficiencia. Por ejemplo, en puestos clave de investigación e inversión, los agentes inteligentes de IA pueden capturar datos 7×24, limpiar información, extraer factores y generar informes, liberando a los inversores del trabajo pesado y repetitivo para que se concentren en la reflexión estratégica en dimensiones más altas.

Sin embargo, cada persona que haya aplicado DeepSeek, Yuandanbao (元宝), Doubao (豆包) y luego lo haya llevado hasta las “camarones de langosta”, puede haber vivido de forma nítida la situación en la que ciertos momentos el modelo de IA dice “disparates con toda seriedad”. Esto queda en la memoria y deja un temor persistente. En el ámbito de gestión de activos donde alguien actúa por encargo y gestiona el dinero de otros, esos “disparates” pueden traducirse en pérdidas reales de dinero para los inversores. Lo más irónico, con cierto humor negro, es que el límite de responsabilidad legal entre las herramientas de IA actuales y los usuarios sigue siendo una zona borrosa. Si el asesoramiento que ofrece un asesor personal o institucional no satisface a los inversores, todavía tienen un lugar para reclamar. Pero si los inversores “resultan heridos” por la herramienta de IA que ellos mismos se descargaron, aparentemente solo pueden comerse la “amarga derrota” de un modo silencioso. En comparación con los “disparates” que son fáciles de identificar al instante, algunas conclusiones de investigación e inversión que parecen plausibles pero son incoherentes de manera superficial—con una lógica que parece cerrada y una redacción profesional—requieren tiempo para comprobarse como falsas, y por eso causan un daño más fuerte. El riesgo de “caja negra”, del que la industria está bastante alerta, es un representante de este tipo de problemas, y también es el riesgo más “central” y el que más se debe vigilar, según el consenso actual sobre modelos de IA.

Hablando con honestidad, la lógica de funcionamiento de la mayoría de los modelos avanzados de IA actuales, especialmente los modelos de aprendizaje profundo, sigue siendo “inexplicable”. Sabemos qué datos se introducen y qué resultados se obtienen, pero casi no sabemos nada sobre cómo el modelo razona internamente para llegar a una conclusión. Estas características de “caja negra” podrían derivar en riesgos letales en el ámbito de la investigación y la inversión. Por ejemplo, cuando estos modelos de IA “aprenden” de textos y datos masivos de Internet, es inevitable que hereden sesgos cognitivos existentes en ellos, ruido del mercado e incluso información errónea. Muchos de los “factores mágicos” que se descubren no son más que fenómenos accidentales estadísticos, pero crean la ilusión de que se ha descubierto un “Santo Grial”. Lamentablemente, cuando la IA nos genera un informe de análisis de inversión o recomendaciones que presentan esas características, a los inversores sin conocimientos profesionales les resulta difícil identificar los errores. Incluso si se trata de un gestor de inversiones profesional, si depende ciegamente de recomendaciones de este tipo, también podría tomar decisiones de inversión catastróficas.

Para los modelos de IA, el desafío más profundo proviene de la propia complejidad de los mercados financieros. El mercado no es un laboratorio estático, sino un sistema complejo y adaptativo en el que las acciones de todos los participantes se influyen mutuamente y evolucionan constantemente. Lo desconcertante es que los datos históricos usados para entrenar los modelos de IA ya contienen, de por sí, las conductas de todos los participantes del mercado del pasado. Y cuando el modelo empieza a operar en función de las regularidades que encuentra, sus propias conductas de trading se convierten en nuevos datos del mercado, lo que a su vez afecta y cambia la trayectoria futura del mercado. Así se forma un ciclo de retroalimentación autorreferencial. Sin entrar en si el modelo fue o no “envenenado”, la naturaleza “adaptativa” de la IA conduce a una realidad cruel: cualquier regularidad efectiva basada en datos públicos y que la IA pueda extraer rápidamente tiene una vida útil de su rendimiento excedente extremadamente corta. Sin información exclusiva ni una lógica profunda comprendida por el mercado, pretender enriquecerse todos juntos apoyándose en herramientas de IA, ¿no es acaso un sueño irreal?

Aunque la integración profunda de la IA y la investigación e inversión es irreversible, para la industria de gestión de activos la clave para aliviar la ansiedad no está en criar algunas “camarones de langosta”, sino en crear un nuevo ecosistema que equilibre eficiencia y riesgos, e integre en profundidad las capacidades de humanos y máquinas. Hoy en día, tanto las principales instituciones financieras como los departamentos de supervisión y regulación de la red adoptan una postura cautelosa respecto a instalar y usar agentes inteligentes de IA de código abierto como OpenClaw en los equipos de la empresa y en sus redes internas. Para instituciones financieras con tamaños de gestión patrimonial de cientos o miles de millones, una herramienta de “caja negra” con un comportamiento incontrolable es una amenaza que el sistema de control de riesgos no puede tolerar.

La industria de gestión de activos no trata de si hay o no IA, sino de quién puede integrar de manera más profunda y mejor la IA con la investigación, los datos, la ingeniería y el control de riesgos. Tanto si se trata de las “camarones de langosta” de ahora como de otras nuevas especies de IA en el futuro, lo más importante es mantener el poder central de juicio humano y convertirse en el “comandante” del grupo de estrategias de IA y el responsable del “interruptor de riesgos”.

Este artículo de la columna solo representa las opiniones personales del autor

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado