Percebi como, ao longo do último ano, as declarações de que já atingimos a inteligência artificial geral se tornam cada vez mais frequentes. A última moda na Nature, claro, só aumentou o entusiasmo. Mas há um problema fundamental que muitos deixam passar.



Aqui está a questão: as pessoas confundem duas coisas completamente diferentes. Por um lado, temos modelos de linguagem que apresentam resultados impressionantes em testes e lidam com tarefas variadas. Por outro — isso não significa que criámos uma verdadeira inteligência geral. É exatamente como misturar reconhecimento de padrões cada vez mais complexo com a própria inteligência.

Se olharmos para as definições históricas de AGI, elas sempre enfatizaram outros aspetos: fiabilidade em diferentes contextos, capacidade de generalizar ao deparar-se com novidades, flexibilidade. Não apenas altas pontuações em testes em condições artificiais.

E aqui está o que é interessante. Pesquisas recentes mostram que sistemas que resolvem tarefas de teste de forma brilhante muitas vezes falham com as mais pequenas alterações nas condições. Modelos médicos, por exemplo, fornecem respostas corretas mesmo quando faltam dados-chave, mas tornam-se instáveis com pequenas mudanças na distribuição. Isso não é inteligência, é treino específico para cenários concretos.

Em nível económico, o quadro é ainda mais revelador. Mesmo os sistemas mais avançados conseguem realizar de forma fiável apenas uma pequena parte das tarefas reais de trabalho, apesar dos altos resultados em condições de teste. Dados recentes indicam que a maioria das empresas ainda não vê um retorno significativo na implementação de ИИ. Não parece uma inteligência geral.

Há ainda um outro ponto que muitas vezes é ignorado. Quando modelos de linguagem e humanos dão respostas iguais, isso não significa que raciocinem da mesma forma. Já vi exemplos em que o modelo emitia uma conclusão confiante numa situação de incerteza, enquanto um especialista humano abstinha-se de julgar exatamente por falta de informação. Uma coincidência superficial oculta diferenças profundas no processo.

Os sistemas atuais continuam frágeis. Dependem da formulação do pedido, não têm objetivos consistentes, não conseguem raciocinar de forma fiável a longo prazo. Até histórias de modelos que resolveram problemas matemáticos abertos — na sua maioria, é uma combinação e tentativa de métodos existentes, não a criação de novas estratégias.

O problema não é apenas terminológico. Quando estas sistemas começarem a ser integrados em processos reais de tomada de decisão na ciência e nas estruturas governamentais, uma superestimação das suas capacidades pode levar a erros graves na distribuição de confiança e responsabilidade. Portanto, misturar uma aproximação estatística avançada com inteligência geral não é só um erro conceitual, mas um risco prático.

Os modelos que temos são ferramentas poderosas, sim. Mas continuam a ser ferramentas, não agentes com verdadeira competência flexível. Essa distinção é importante.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar