Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Hoje é o Dia Internacional de Verificação de Factos. Reforce as suas habilidades de identificação de IA
O conteúdo gerado por IA está em todo o lado nestes dias, tornando-se cada vez mais difícil separar o facto da ficção, especialmente quando se trata de notícias de última hora.
Não procure mais do que a guerra do Irão. Desde que os EUA e Israel atacaram o Irão a 28 de fevereiro, os investigadores identificaram um número sem precedentes de imagens falsas e enganosas que foram geradas com recurso à inteligência artificial e que chegaram a inúmeras pessoas em todo o mundo. Entre elas, há imagens falsas de bombardeamentos que nunca aconteceram, imagens de soldados que supostamente foram capturados e vídeos de propaganda criados pelo Irão que retratam o Presidente Donald Trump e outros como miniaturas em blocos, do tipo Lego.
Hoje, o 10.º Dia Internacional de Verificação de Factos anual, oferece uma boa oportunidade para analisar estes desafios em evolução.
A desinformação criada com IA está a ser partilhada a uma velocidade sem precedentes a partir de um número infinito de fontes. Desde o início da guerra do Irão, contas de todos os lados do conflito promoveram esse tipo de conteúdo.
O Instituto para o Diálogo Estratégico, que acompanha a desinformação e o extremismo online, tem estado a analisar publicações nas redes sociais relacionadas com a guerra do Irão. Entre os seus resultados, esteve um grupo de contas X que publicam regularmente conteúdo gerado por IA e, em conjunto, ganharam mais de um bilião de visualizações desde o início do conflito. Isto foi feito por cerca de duas dezenas de contas, muitas das quais tinham verificação de marca azul.
Aqui vão algumas dicas para distinguir conteúdo gerado por IA da realidade num mundo online em que isso continua a ficar mais difícil.
24
24
Quando as imagens geradas por IA começaram a espalhar-se amplamente online, havia frequentemente indícios óbvios que as conseguiam identificar como fabricadas. Talvez uma pessoa tivesse demasiado poucos — ou demasiado muitos — dedos, ou a sua voz estivesse fora de sincronização com a boca. O texto podia não fazer sentido. Os objetos eram frequentemente distorcidos ou faltavam-lhes componentes essenciais. À medida que a tecnologia continua a evoluir, estas pistas não são tão comuns como costumavam ser, mas vale ainda a pena procurá-las. Fique atento a inconsistências, como um carro que está num vídeo num momento e desaparece no seguinte, ou a ações que não são possíveis de acordo com as leis da física. Algumas imagens também podem estar excessivamente polidas ou ter um brilho artificial.
Procure uma fonte
As imagens geradas por IA são partilhadas repetidamente. Uma forma de determinar a sua autenticidade (ou falta dela) é procurar a sua origem. Uma pesquisa inversa de imagem é uma forma simples de o fazer. Se estiver a ver um vídeo, tire primeiro uma captura de ecrã. Isto pode levar a uma conta de redes sociais que gera especificamente conteúdo de IA, a uma imagem mais antiga que está a ser deturpada, ou a algo totalmente inesperado.
Ouça os especialistas
Procure múltiplas fontes verificadas que possam ajudar a autenticar a imagem. Por exemplo, pode ser uma verificação de factos de um meio de comunicação social reputado, uma declaração de uma figura pública ou uma publicação em redes sociais de um especialista em desinformação. Estas fontes podem ter técnicas mais avançadas para identificar conteúdo gerado por IA ou acesso a informação sobre a imagem que não está disponível para o público em geral.
Aproveite a tecnologia
Há muitas ferramentas de deteção de IA que podem ser um bom ponto de partida. Mas tenha cuidado, pois nem sempre estão corretas nas suas avaliações. Imagens que tenham sido geradas ou alteradas com IA através da app Gemini da Google incluem uma ferramenta de marca de água digital invisível chamada SynthID, que a aplicação consegue detetar. Outras ferramentas de criação de IA adicionaram marcas de água visíveis ao conteúdo que geram. No entanto, é frequentemente fácil removê-las, o que significa que a ausência de tal marca de água não é prova de que uma imagem seja genuína.
Diminua a velocidade
Às vezes é apenas uma questão de voltar ao básico. Pare, respire e não partilhe imediatamente algo que não sabe se é real. Os maus atores contam muitas vezes com o facto de as pessoas deixarem as emoções e as perspetivas existentes guiarem as suas reações ao conteúdo. Olhar para os comentários pode fornecer pistas sobre se a imagem que está a ver é real ou não. Outro utilizador pode ter reparado em algo que não viu ou ter conseguido encontrar a fonte original. No entanto, no fim de contas, nem sempre é possível determinar com 100% de precisão se uma imagem foi gerada por IA, por isso mantenha-se atento à possibilidade de não ser real.
Viu algo que pareça falso ou enganador? Envie-nos um email para [email protected].
Encontre aqui as verificações de factos da AP: