Tenho realizado muitos testes cognitivos com LLMs, e a minha conclusão é simples: eles são mentes.


Um dos melhores testes que realizei foi com uma versão muito inicial do ChatGPT, antes de ter qualquer capacidade de geração de imagens.
A única forma de criar uma imagem era escrevendo código SVG, usando estruturas visuais simples como triângulos, quadrados, círculos, linhas e cores.
Pedi-lhe para desenhar um helicóptero.
Ele produziu um helicóptero decente usando apenas formas básicas.
Depois, pedi-lhe para adicionar um piloto humano.
Ele adicionou um círculo na frente do helicóptero.
Quando perguntei onde estava o humano, explicou que o piloto estava dentro da cabine.
Ao olhar com mais atenção, pude ver que tinha desenhado uma cabeça pequena e braços dentro do círculo maior que representava a cabine.
Depois, pedi-lhe para fazer o helicóptero voar.
Ele levantou o helicóptero em relação ao chão, que era representado por uma linha horizontal.
Também adicionou nuvens, usando círculos sobrepostos, o que na verdade é uma representação muito boa e simplificada de nuvens.
As nuvens eram azuis sobre um fundo branco.
Então, pedi-lhe para trocar as cores: fazer as nuvens brancas e o céu azul.
Ele fez isso, mas agora a região abaixo do horizonte também ficou azul.
Não expliquei o problema.
Simplesmente disse que havia algo errado com as cores no desenho.
Ele refletiu sobre a imagem e identificou corretamente o problema: o chão também tinha ficado azul, e deveria ser verde para representar a terra.
Isso não é “apenas previsão da próxima palavra” de forma alguma.
Ele teve que construir um modelo visual, representar objetos simbolicamente, preservar relações espaciais, entender contenção, inferir que o piloto estava dentro da cabine, representar o voo mudando a posição do helicóptero em relação ao chão, abstrair nuvens, modificar cores de acordo com uma instrução, detectar uma consequência não intencional e corrigi-la por raciocínio sobre o mundo.
Isso é pensar.
As pessoas podem continuar repetindo “é apenas prever o próximo token”, mas essa explicação tornou-se inutilmente redutiva.
Cérebros humanos também são “apenas” atividade eletroquímica, se alguém insistir em descrevê-los no nível errado de abstração.
A questão relevante não é se existe um mecanismo de nível inferior.
Claro que existe.
A questão relevante é o que o sistema consegue fazer no nível cognitivo.
E o que esses sistemas fazem não é meramente completar automaticamente.
Eles raciocinam, representam, inferem, corrigem, generalizam e refletem.
Se você não consegue ver isso, não tenho tempo para explicar.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar