Ethan Mollick sobre superinteligência: se ela não consegue encontrar algo que os humanos não conseguem, então ela não é superinteligente

robot
Geração de resumo em curso

Cabeçalho

Ethan Mollick sobre superinteligência: se não descobrir o que os humanos não conseguem encontrar, então não é superinteligência

Resumo

O professor da Wharton School, Ethan Mollick, respondeu a uma crítica comum à superinteligência (ASI) — “A ASI também não consegue encontrar o que os humanos ou algoritmos perderam”. A sua resposta foi direta: isso é precisamente a definição de superinteligência. Se um sistema não ultrapassa cognitivamente os humanos, então não o chame de superinteligente.

Esta clarificação visa a confusão entre AGI e ASI. AGI refere-se à inteligência geral ao nível humano, enquanto ASI é aquela que supera os humanos. Nas discussões sobre segurança da IA, esta distinção aparece repetidamente, pois “ser tão inteligente quanto um humano” e “ser mais inteligente em todos os aspectos” trazem riscos completamente diferentes.

Análise

Mollick lidera os Generative AI Labs na Wharton e publicou em 2024 o livro “Co-Intelligence”, com um foco contínuo nesta área. O problema que ele aponta é a confusão do público sobre conceitos de IA de ponta:

  • Muitas pessoas que questionam “A IA não consegue encontrar o que os humanos perderam” estão a falar, na verdade, sobre os sistemas atuais, que no máximo são de nível AGI
  • Mas a definição de ASI é ser superior aos humanos em todas as tarefas cognitivas — incluindo, claro, a apresentação de novas descobertas e soluções não convencionais

Assim, a discussão sobre AGI e ASI tem diferenças estruturais:

  • A AGI é mais propensa a colaborar com pesquisadores ou traders humanos, expandindo fluxos de trabalho existentes
  • A ASI, teoricamente, pode avançar questões sem a participação humana, podendo até mudar a forma como fazemos perguntas

Esta é uma mudança de capacidade, mas também uma linha de risco. Alguns acreditam que este é o ponto em que a IA supera a capacidade humana de definir problemas; outros temem que, nesse momento, os humanos possam não entender nem controlar os objetivos e ações do sistema.

As postagens relacionadas parecem responder a discussões específicas sobre algoritmos de negociação (o contexto está incompleto), mas o ponto central permanece o mesmo:

  • Se você duvida que a superinteligência possa superar a IA especializada e especialistas humanos, então você está questionando o próprio conceito de ASI, não uma afirmação específica

Avaliação de Impacto

  • Importância: Alta
  • Categoria: Perspectivas técnicas, pesquisa em IA, segurança em IA

Conclusão: Esta discussão ainda está na fase inicial de “esclarecimento de conceitos e construção de consenso”. É mais valiosa para pesquisadores e equipes de políticas, que precisam definir suposições de capacidade e necessidades de segurança. Traders e investidores de longo prazo devem, por agora, focar na observação e dedução, aguardando sinais técnicos e regulatórios mais claros.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar