【Oportunidade da Era】 O modelo de pesquisa e investimento em IA para gestão de ativos precisa sair da "armadilha da caixa preta"

robot
Geração de resumo em curso

(Título original: 【Ventos da Era】 O modelo de IA para gestão de ativos e research precisa de sair da “armadilha da caixa negra”)

Jiang Guangxiang

A partir de 2026, o desenvolvimento dos agentes de IA acelera de forma notável, liderado pelos “camarões-de-liga” (“OpenClaw”, alcunha do agente de IA OpenClaw), e a ansiedade de não criar um acaba por fazer com que não se fique para trás, algo que não poupa nenhum setor de gestão de ativos, como os fundos mútuos. O valor central dos agentes de IA, representados pelo OpenClaw, está em preencher os “últimos quilómetros” entre uma quantidade massiva de dados e aplicações práticas em research de investimentos, permitindo-nos percecionar de perto uma melhoria extrema da eficiência no trabalho. Tomando como exemplo os cargos centrais de research, os agentes de IA conseguem captar dados automaticamente 7×24, limpar informações, extrair fatores e gerar relatórios, libertando os investidores do trabalho repetitivo e pesado e permitindo-lhes concentrar-se em pensar estratégias em dimensões mais elevadas.

No entanto, qualquer pessoa que tenha seguido o percurso de DeepSeek, Yuanbao, Doupao, e que depois aplique também até aos “camarões-de-liga”, pode ter uma memória bem viva e um receio persistente de que, em certas ocasiões, os modelos de IA “falam com toda a seriedade e inventam disparates”. No setor de gestão de ativos, em que se atua por incumbência e a partir de uma encomenda, esses “disparates” muito provavelmente podem causar perdas em dinheiro aos investidores. Com um toque de humor negro, a fronteira entre a responsabilidade legal atualmente ainda é uma zona pouco clara entre as ferramentas de IA e os utilizadores. Se um consultor de investimentos — pessoa individual ou instituição — der conselhos, e se o investidor não ficar satisfeito, o investidor ainda tem onde reclamar e fazer valer o seu ponto. Mas se o investidor for “ferido” pela ferramenta de IA que ele próprio descarregou, parece que só lhe resta engolir o prejuízo em silêncio. Em comparação com “disparates” que são fáceis de identificar de imediato, alguns pareceres de research que parecem plausíveis, mas cuja lógica é consistente e cuja redação é profissional, exigem tempo para serem desmentidos, e por isso são ainda mais lesivos. O “risco da caixa negra” — sobre o qual a indústria mantém uma vigilância particularmente atenta — é um exemplo disso, e é também o risco mais central e o mais merecedor de cautela dos modelos de IA, amplamente reconhecido até ao momento.

Dizendo a verdade, a maioria dos modelos de IA avançados atuais, sobretudo os modelos de aprendizagem profunda, ainda opera segundo uma lógica “não explicável”. Sabemos que foram introduzidos dados e que foram obtidos determinados resultados, mas quase nada sabemos sobre o processo de raciocínio interno pelo qual o modelo chega a uma conclusão. Esta característica de “caixa negra” pode dar origem a riscos fatais no domínio do research de investimentos. Por exemplo, quando estes modelos de IA “aprendem” textos e dados em massa da Internet, é inevitável herdarem desvios cognitivos existentes, ruído de mercado e até informação incorreta. Muitos dos “fatores mágicos” extraídos não passam de ocorrências estatísticas ao acaso, mas dão à pessoa a ilusão de ter descoberto um “Santo Graal”. Lamentavelmente, quando a IA nos gera um relatório de análise de investimentos ou uma recomendação com as características acima, os investidores sem conhecimentos profissionais têm grande dificuldade em identificar as falhas. Mesmo um gestor de investimentos profissional, se depender cegamente de recomendações desse tipo, pode tomar decisões de investimento desastrosas.

Para os modelos de IA, o desafio ainda mais profundo vem da própria complexidade dos mercados financeiros. O mercado não é um laboratório estático; é um sistema adaptativo complexo em que as ações de todos os participantes se influenciam mutuamente e evoluem continuamente. O intrigante é que os dados históricos utilizados para treinar os modelos de IA já incluem, por si, as ações de todos os participantes do mercado no passado. E quando o modelo começa a negociar com base nas regularidades que descobre, as próprias ações de negociação passam a ser novos dados do mercado, o que por sua vez afeta e altera a evolução futura do mercado. Assim se forma um ciclo de retroalimentação auto-referencial. Independentemente de o modelo ter sido ou não “envenenado”, a característica “adaptativa” da IA conduz a uma realidade cruel: qualquer regularidade eficaz, baseada em dados públicos e capaz de ser extraída rapidamente pela IA, tem uma duração de vida para o excesso de retorno extremamente curta. Sem uma perceção exclusiva e sem a lógica profunda de como o mercado compreende, sonhar em depender em conjunto das ferramentas de IA para “ficar rico” mais não é do que um sonho irrealista.

Embora a integração profunda entre IA e research de investimentos seja irreversível, para o setor de gestão de ativos a chave para aliviar a ansiedade não está em criar algumas “camarões-de-liga”, mas sim em construir um ecossistema novo que equilibre eficiência e risco, e faça uma integração ainda mais profunda das capacidades humanas e das capacidades homem-máquina. Atualmente, quer as principais instituições financeiras, quer os departamentos de supervisão regulatória em rede, mantêm uma postura cautelosa relativamente à instalação e ao uso, nos equipamentos da empresa e nas redes internas, de agentes de IA open source como o OpenClaw. Para instituições financeiras de gestão de ativos com escala na ordem das centenas e dos milhares de milhões de renminbi, uma ferramenta “caixa negra” cujo comportamento não é controlável é uma ameaça que o sistema de controlo de risco não pode tolerar.

O setor de gestão de ativos não se define por saber se há ou não IA; define-se por saber quem consegue combinar de forma mais profunda e melhor a IA com pesquisa, dados, engenharia e controlo de risco. Independentemente de serem os “camarões-de-liga” de agora ou outras espécies novas de IA no futuro, manter a autoridade central do julgamento humano e tornar-se o “comandante” do grupo de estratégias de IA e o “gestor do interruptor de risco” é o mais importante.

Este artigo da coluna apenas representa a opinião pessoal do autor

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar