O julgamento de Mollick: Após obterem a AGI, os principais laboratórios podem primeiro escondê-la para fazer arbitragem financeira

robot
Geração de resumo em curso

Título

Ethan Mollick: Se já tens AGI, por que di-lo aos outros?

Resumo

O professor da Wharton Ethan Mollick disse no X uma avaliação que deixa algo desconfortável: quando um laboratório cria uma AGI que excede a inteligência humana, a forma mais rápida e estável de ganhar dinheiro não é disponibilizá-la via API para que todos a usem, mas sim primeiro aplicá-la ao trading nos mercados financeiros — aproveitando o facto de os concorrentes ainda não terem reagido, para arrecadar os lucros excedentes.

Seguindo essa lógica, os verdadeiros avanços tecnológicos são mais propensos a ser escondidos do que anunciados de imediato.

Isto entra em conflito com os pressupostos dos debates mainstream sobre a governação da IA. Em geral, assume-se que “quando chegar o momento crítico, nós saberemos”. Mas, segundo Mollick: é possível que simplesmente não saibamos.

Análise

  • Quem é Mollick: Professor adjunto na Wharton, responsável pelos Generative AI Labs; em 2024 lançou um best-seller, 《Co-Intelligence》; a sua coluna Substack “One Useful Thing” tem mais de 419 mil subscritores; o TIME incluiu-o como uma das figuras de IA influentes de 2024. A sua análise sobre os mecanismos de incentivo na indústria tem peso suficiente para ser levada a sério.
  • Existem preocupações semelhantes noutros locais:
    • A AI Policy Bulletin (2025-2026) alertou para o “caráter discreto do treino de AGI” — para contornar a regulação ou ganhar vantagem antecipada, os laboratórios podem reduzir a divulgação externa; quando surgem problemas, não há supervisão pública.
    • O estudo do JPMorgan Chase (2025) sobre AGI e finanças também apoia este pressuposto: se existir um sistema que excede de forma abrangente os humanos em tarefas cognitivas, usar isso para trading quantitativo e para descobrir estratégias terá uma recompensa muito tentadora.
    • A investigação da Anthropic sobre “comportamentos adversos de sistemas de agentes em contextos empresariais” também sugere que: “esconder-se primeiro para ganhar algum dinheiro” não é um delírio, mas sim uma resposta racional aos mecanismos de incentivo.

Como escolher as duas vias: API pública vs. trading silencioso

Dimensão API pública Trading silencioso
Velocidade de ganhar dinheiro Moderada: é preciso fazer produto, criar ecossistema, implementar faturação Rápida: investir diretamente em vários mercados e em várias estratégias
Tecto de ganhos Fácil de ser copiado pelos concorrentes, concorrência em preços Lucros excedentes durante a fase de assimetria de informação
Pressão regulatória e mediática Alta: é preciso divulgar, cumprir requisitos Baixa: sistemas e estratégias internos podem operar de forma fechada
Controlo de risco Utilizadores externos trazem comportamentos e responsabilidades incontroláveis Tentativa-erro fechada internamente; o âmbito do controlo de riscos é controlável
Valor estratégico Reforço de marca e posição no ecossistema Vantagem de “first mover” em capital e dados

Conclusão: se o objetivo é ganhar o dinheiro mais certo no menor espaço de tempo, a motivação para se esconder e fazer arbitragem nos mercados financeiros é ainda mais forte.

O que isto implica para a governação

  • O pressuposto pode estar errado: a maioria das estruturas de governação parte do princípio de que “a rutura é observável”, mas o cenário de Mollick mostra que “a rutura não observável” se ajusta melhor à lógica dos incentivos.
  • A regulação não vê: mesmo que existam exigências de divulgação de IA, desde que não haja auditoria independente obrigatória e monitorização contínua, o laboratório tem espaço suficiente para construir um “buffer de informação” entre capacidades técnicas e conformidade.
  • O que acontecerá no mercado: se alguém estiver de facto a usar AGI em segredo para fazer trading, os sinais de preço serão primeiro internalizados por um pequeno grupo, e só depois chegariam ao mercado público sob a forma de volatilidade anómala e ruído.

Avaliação de impacto

  • Importância: elevada
  • Categorias: segurança da IA, impacto no mercado, investigação em IA

Julgamento: Para o investidor/operador comum, esta notícia pode já estar atrasada; os verdadeiros beneficiários são os laboratórios que primeiro dominam o sistema, bem como as instituições proprietárias e fundos de investimento/hedge funds que têm capacidade para dados e estratégias privadas. Para reguladores e construtores de infraestruturas, se for possível preparar cedo a “cadeia de ferramentas de auditoria forçada + monitorização de comportamento”, ainda existe oportunidade. No geral, a vantagem está claramente a favor dos intervenientes que “têm inteligência na mão” e conseguem executar em modo fechado.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar