Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 30 modelos de IA, com 0% de taxas adicionais
Engenho de respostas por IA em contaminação colectiva: 56% das respostas correctas do Gemini 3 não têm suporte de fontes
Com base no artigo de análise aprofundada publicado em 21 de abril de 2026 por Pedro Dias na The Inference, a falha dos modelos (model collapse) não é uma “ameaça futura” que o sector teme — está a acontecer já, de forma imediata, noutro formato: os motores de resposta por IA citam, no momento da consulta, conteúdos gerados por outras IAs como fonte de autoridade, sem que seja necessário que todo o ciclo de contaminação passe por nova re-treino do modelo. Este argumento utiliza como metáfora central a ideia de que “uma serpente que mordisca o próprio rabo (Ouroboros) aprendeu a citar-se a si própria”.
Diferenças-chave entre Model Collapse e Retrieval Contamination
As preocupações tradicionais sobre a degradação dos modelos de IA giram em torno do model collapse: conteúdos sintéticos contaminam progressivamente os dados de treino, levando a uma queda da qualidade nos modelos das gerações futuras. Este é um risco crónico, que só se torna visível após múltiplas rondas de re-treino.
O aviso apresentado por Pedro Dias é uma camada diferente: a retrieval contamination (contaminação por pesquisa). Motores de resposta baseados em RAG (retrieval-augmented generation) como Perplexity, Google AI Overviews, ChatGPT, Grok, etc., captam, no instante em que o utilizador faz uma pergunta, conteúdos de páginas Web como base para a resposta. Se a página captada tiver, ela própria, conteúdo errado gerado por IA, o motor apresenta-o como facto aos leitores — e esta contaminação não requer qualquer re-treino para se tornar ativa imediatamente.
Três casos reais: motores de IA enganados por desinformação que eles próprios geraram
O autor lista três incidentes específicos:
Caso Lily Ray: a Perplexity citou um suposto update de algoritmo do Google chamado “September 2025 Perspective Core Algorithm Update” como informação de referência — esse update não existe; a fonte era um falso post de blog SEO gerado por IA.
Teste de Thomas Germain: o jornalista Thomas Germain publicou um blogue experimental “o jornalista tecnológico mais forte a comer hot-dogs”; em 24 horas, ficou em primeiro lugar e foi citado pelo Google AI Overviews e pelo ChatGPT, e ainda inventou uma “competição desportiva no Dakota do Sul” inexistente para dar suporte.
Grokipedia: o projecto enciclopédico da xAI da Musk já gerou ou reescreveu 885,279 artigos, incluindo factos errados (por exemplo, a data de falecimento do pai da cantora canadiana Feist está errada) e citações sem suporte. A Grokipedia já perdeu grande parte da sua visibilidade no Google em meados de fevereiro de 2026.
Estudo Oumi: Gemini 3 com alta taxa de acerto, mas 56% sem fontes
Avaliação encomendada pelo NYT e realizada pela Oumi: Gemini 2 tem 85% de taxa de acerto no benchmark SimpleQA, e Gemini 3 melhora para 91%. Mas o mesmo teste mostra que, nas respostas corretas do Gemini 3, 56% são “ungrounded” — o modelo acerta na resposta, mas não há fontes de suporte verificáveis; no caso do Gemini 2, essa proporção é de 37%.
Isto significa que os novos modelos geracionais estão “mais precisos na forma” ao dar respostas, mas ao mesmo tempo pioram em “rastreabilidade das fontes das respostas”. Para cenários como comunicação social, investigação, verificação de factos, etc., esta pioria é mais fatal do que uma taxa de erro puramente mais alta, porque os leitores não conseguem recuar até aos documentos de autoridade originais para verificar por si.
Dimensão da indústria: Google AI Overviews abrange 2 mil milhões de utilizadores
A escala industrial deste problema de contaminação: Google AI Overviews tem mais de 2 mil milhões de utilizadores ativos mensais, o Google tem mais de 5 triliões de pesquisas anuais, e o ChatGPT tem quase 900 milhões de utilizadores semanais (50 milhões pagos). Ou seja, a grande maioria dos utilizadores da Internet obtém informação factual através de canais que já passaram pela camada de motores de resposta que podem estar contaminados por conteúdos gerados por IA.
Outro estudo da Ahrefs mostra que, entre as fontes citadas pelo ChatGPT, 44% são artigos de listas do tipo “best X”. Este tipo de artigos é precisamente o conteúdo de IA produzido em massa pela indústria de SEO para combater a perda de tráfego para os motores de resposta — constituindo, em particular, uma das principais fontes de contaminação para esses motores.
Conclusão estrutural: a camada de citações já se desligou da identidade de autores fiáveis
A conclusão final do autor: a camada de citações dos motores de resposta por IA já se desligou da identidade de autores fiáveis. A indústria de SEO produz conteúdos de IA → os motores de resposta os captam como facto → os leitores acreditam → a indústria de SEO recebe incentivos para continuar a produzir ainda mais conteúdos de IA, formando um ciclo de contaminação de auto-reforço. Neste momento, não existe um mecanismo claro de responsabilização na indústria que exija que os motores de IA respondam pela qualidade das fontes que citam.
Para os utilizadores, isto significa que, na fase atual, não se pode tratar as respostas do Perplexity, AI Overviews e ChatGPT como o ponto final de verificação de factos; ainda é necessário recuar manualmente até às fontes oficiais originais para garantir a precisão.
Este artigo “contaminação em massa dos motores de resposta por IA: 56% das respostas corretas do Gemini 3 sem suporte de fontes” apareceu pela primeira vez em Cadeia de Notícias ABMedia.