Usar O Seu Chatbot De IA Como Um Motor De Busca? Tenha Cuidado Com O Que Acredita

Durante a Primeira Guerra Mundial, o governo britânico procurava formas de ajudar as pessoas a estenderem os seus recursos alimentares limitados. Encontrou panfletos de um renomado herbalista do século XIX que afirmava que as folhas de ruibarbo podiam ser usadas como legume, juntamente com os talos.

O governo imprimiu os seus próprios panfletos aconselhando as pessoas a comerem folhas de ruibarbo como salada, em vez de as deitarem fora. Houve um problema: as folhas de ruibarbo podem ser venenosas. Relataram-se mortes e doenças.

O conselho foi corrigido e os panfletos retirados de circulação. Mas, durante a Segunda Guerra Mundial, o governo voltou a procurar formas de prolongar os alimentos disponíveis.

Encontrou um stock de recursos antigos da guerra anterior que explicava fontes não ortodoxas de alimentos, incluindo folhas de ruibarbo. Reutilizar os panfletos parecia uma solução eficiente, por isso foram enviados ao público. Mais uma vez, relataram-se mortes e doenças.

Esses panfletos eram desinformação, mas o público não tinha motivo para suspeitar de ambos os casos. Eram recursos oficiais desenvolvidos pelo governo – por que não seriam seguros?

É assim que a desinformação pode causar problemas mesmo após o erro inicial ter sido corrigido. E a moral da história ainda ressoa na era da inteligência artificial generativa (IA).

Chatbots não são motores de busca

A IA generativa é usada para gerar textos, imagens (e outras formas de dados) com base em informações originais que ingeriu. Mas também pode ser uma fonte de propagação de desinformação mais rápida do que as pessoas conseguem produzir informações seguras, quanto mais verificá-las e corrigi-las.

E, como a história do ruibarbo ilustra, as correções nem sempre conseguem remover adequadamente a contaminação original.

Plataformas de IA como o ChatGPT e o Claude não funcionam como um motor de busca convencional. Mas as pessoas usam-nas como tal, porque parecem resumir tópicos complexos rapidamente e exigem menos cliques do que buscas tradicionais na internet.

Os motores de busca baseiam-se em artigos e textos sobre um determinado tema, avaliando a confiabilidade desses artigos. A IA generativa, por outro lado, baseia-se em grandes volumes de texto, medindo as probabilidades de as palavras aparecerem próximas umas das outras.

Estes “modelos de linguagem de grande escala” procuram apenas gerar frases com aparência razoável, em vez de precisas.

Por exemplo, se “ovos verdes e presunto” aparecer com frequência suficiente na sua vasta coleção de palavras, é mais provável que descreva “ovos e presunto” como verdes, se alguém perguntar.

‘Plausível, mas incorreto’

A OpenAI, que desenvolveu o ChatGPT, admitiu (com base num estudo próprio) que não há como impedir que informações falsas sejam apresentadas como verdade devido ao funcionamento da IA generativa. Explicando por que os “alucinações” dos grandes modelos de linguagem, os investigadores escreveram:

Isto pode ter consequências no mundo real. Um estudo recente mostrou que o ChatGPT falhou em reconhecer uma emergência médica em mais da metade dos casos. Isso pode ser agravado por erros já existentes nos registos médicos, que uma investigação no Reino Unido em 2025 revelou afetar até um em cada quatro pacientes.

Enquanto um médico pode solicitar mais testes para confirmar um diagnóstico, um investigador explicou que a IA generativa “fornece a resposta errada com a mesma confiança que a correta”.

O problema, como outro cientista observou, é que a IA generativa “encontra e imita padrões de palavras”. Estar certo ou errado não é realmente o ponto: “Era suposto gerar uma frase e gerou.”

Pesquisas mostram que as ferramentas de IA generativa incorretamente representam as notícias 45% das vezes, independentemente do idioma ou região geográfica. E há agora uma preocupação genuína de que a IA possa colocar vidas em risco ao gerar rotas de caminhadas inexistentes.

É fácil fazer piada com a IA generativa quando ela aconselha as pessoas a comerem pedras ou a segurarem coberturas de pizza com cola.

Mas outros exemplos não são tão divertidos – como o planeador de refeições de supermercado que sugeriu uma receita que produziria gás cloro, ou o conselho dietético que deixou alguém com exposição tóxica crónica ao bromo.

Procure informações antigas

Educação e o estabelecimento de boas regras para o uso adequado e cauteloso da IA generativa serão essenciais, especialmente à medida que ela avança em governos, burocracias e organizações complexas.

Políticos já usam IA generativa no seu trabalho diário, incluindo para pesquisa de políticas. E departamentos de emergência hospitalar usam ferramentas de IA para registar notas de pacientes, economizando tempo.

Uma salvaguarda é tentar obter informações mais confiáveis produzidas antes de a IA contaminada com textos e imagens invadir a internet.

Existem até ferramentas disponíveis para ajudar a simplificar esse processo, incluindo uma criada pela artista australiana Tega Brain, que “apenas retornará conteúdos criados antes do primeiro lançamento público do ChatGPT, em 30 de novembro de 2022”.

Por fim, se o seu instinto for verificar os factos da história no início deste artigo, os bons e velhos livros podem ser a sua melhor aposta: referências de como o governo britânico incentivou duas vezes o envenenamento por ruibarbo podem ser encontradas em “The Poison Garden’s A-Z of Poisonous Plants” e “Botanical Curses and Poisons: The Shadow Lives of Plants”.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar