Hoje é o Dia Internacional de Verificação de Factos. Reforce as suas habilidades de identificação de IA

O conteúdo gerado por inteligência artificial está em todo o lado atualmente, tornando cada vez mais difícil separar o facto da ficção, sobretudo quando se trata de notícias de última hora.

Não procure mais do que a guerra no Irão. Desde que os EUA e Israel atacaram o Irão a 28 de fevereiro, investigadores identificaram um número sem precedentes de imagens falsas e enganosas que foram geradas com recurso a inteligência artificial e que chegaram a inúmeras pessoas em todo o mundo. Entre elas, há imagens de filmagens falsas de bombardeamentos que nunca aconteceram, imagens de soldados que supostamente foram capturados e vídeos de propaganda criados pelo Irão que retratam o Presidente Donald Trump e outros como miniaturas em blocos, estilo Lego.

Na quinta-feira, 10.º Dia Internacional de Verificação de Factos anual, é uma boa oportunidade para analisar estes desafios em evolução.

A desinformação criada com IA está a ser partilhada com uma velocidade sem precedentes a partir de um número infinito de fontes. Logo desde o início da guerra no Irão, contas de todos os lados do conflito promoveram esse tipo de conteúdo.

O Instituto para o Diálogo Estratégico, que acompanha a desinformação e o extremismo online, tem estado a examinar publicações nas redes sociais sobre a guerra no Irão. Entre as suas conclusões esteve um grupo de contas do X que publicam regularmente conteúdo gerado por IA e, em conjunto, ganharam mais de 1 mil milhões de visualizações desde o início do conflito. Isto foi feito por cerca de duas dezenas de contas, muitas das quais tinham verificação de “selo azul”.

Aqui vão algumas dicas para distinguir conteúdo gerado por IA da realidade num mundo online em que isso continua a ficar mais difícil.

                        Histórias Relacionadas

Look for visual cues

Quando as imagens geradas por IA começaram a espalhar-se amplamente online, havia muitas vezes sinais evidentes que as ajudavam a identificar como fabricadas. Talvez uma pessoa tivesse poucos — ou demasiados — dedos, ou a voz estivesse fora de sincronia com a boca. O texto podia não fazer sentido. Os objetos eram frequentemente distorcidos ou faltavam-lhes componentes-chave. À medida que a tecnologia continua a evoluir, estes indícios já não são tão comuns como antes, mas vale a pena estar atento a eles. Procure inconsistências, como um carro que está num vídeo num momento e desaparece no seguinte, ou ações que não são possíveis de acordo com as leis da física. Algumas imagens podem também estar demasiado polidas ou ter um brilho artificial.

Ler mais

Seek out a source

As imagens geradas por IA são partilhadas repetidamente. Uma forma de determinar a sua autenticidade (ou falta dela) é procurar a origem. Uma pesquisa inversa de imagem é uma forma simples de o fazer. Se estiver a ver um vídeo, tire primeiro uma captura de ecrã. Isto pode levar a uma conta numa rede social que gera especificamente conteúdo de IA, a uma imagem mais antiga que está a ser mal representada, ou a algo totalmente inesperado.

Listen to the experts

Procure múltiplas fontes verificadas que possam ajudar a autenticar a imagem. Por exemplo, isso pode significar uma verificação de factos de um órgão de comunicação social respeitável, uma declaração de uma figura pública ou uma publicação em redes sociais de um especialista em desinformação. Estas fontes podem ter técnicas mais avançadas para identificar conteúdo gerado por IA ou acesso a informações sobre a imagem que não estão disponíveis para o público em geral.

Make use of technology

Existem muitas ferramentas de deteção de IA que podem ser um bom ponto de partida. Mas tenha cuidado, pois nem sempre estão corretas nas suas avaliações. Imagens que foram geradas ou alteradas com IA usando a aplicação Gemini da Google incluem uma ferramenta invisível de marca d’água digital chamada SynthID, que a app consegue detetar. Outras ferramentas de criação de IA adicionaram marcas de água visíveis ao conteúdo que geram. No entanto, muitas vezes é fácil removê-las, o que significa que a ausência de uma marca de água não é prova de que uma imagem é genuína.

Slow down

Por vezes, trata-se apenas de voltar ao básico. Pare, respire e não partilhe imediatamente algo que não sabe se é real. Os agentes maliciosos muitas vezes contam com o facto de as pessoas deixarem as emoções e as perspetivas existentes guiarem as suas reações ao conteúdo. Olhar para os comentários pode fornecer pistas sobre se a imagem que está a ver é real ou não. Outro utilizador pode ter reparado em algo que você não reparou, ou ter conseguido encontrar a fonte original. No entanto, no fim de contas, nem sempre é possível determinar com 100% de exatidão se uma imagem foi gerada por IA, por isso mantenha-se alerta para a possibilidade de que possa não ser real.

Viu algo que pareça falso ou enganador? Envie-nos um e-mail para [email protected].


Encontre as verificações de factos da AP aqui:

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar