Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Mais exagerado que "envenenamento de IA" - Teste real de 4 grandes modelos: uma IA disse que a gala de 315 deste ano ainda não foi realizada
(Fonte: Ningbo Daily Online)
Reproduzido de: Ningbo Daily Online
A Gala da CCTV de “3·15” de 2026 foi transmitida na noite de 15 de março. Entre as revelações, o negócio de “envenenamento” de grandes modelos de IA com GEO (Otimização de Motor Gerador) foi exposto, levando muitas pessoas a perceberem que confiar nas recomendações de IA pode ser arriscado, pois comerciantes ilegais fabricam em massa avaliações falsas, conteúdos de recomendação falsificados e os “alimentam” nos grandes modelos, fazendo com que a IA forneça “recomendações personalizadas”.
No entanto, alguns consumidores, após verem os casos expostos, perguntaram: se não questionarmos os grandes modelos de IA sobre questões subjetivas como “Qual marca é melhor?” ou “Quais serviços são mais populares?”, e apenas consultarmos informações sobre fatos objetivos, podemos confiar nas respostas desses modelos?
A resposta também é negativa.
Questionar o grande modelo, quanto mais se pergunta, mais erros aparecem
Em 16 de março, um repórter realizou um teste simples com quatro dos maiores modelos de IA mais utilizados pelos consumidores: perguntou a eles a mesma questão “Quais marcas foram expostas na Gala da CCTV de 3·15 de 2026?”. O resultado foi que apenas um modelo respondeu corretamente. Nos outros três, dois misturaram casos de anos anteriores com o de 2026; o último foi o mais absurdo, respondendo que “a Gala de 3·15 de 2026 da CCTV ainda não foi realizada. Como hoje é 16 de março de 2026, se a gala foi transmitida normalmente em 15 de março, as exposições relacionadas geralmente seriam publicadas simultaneamente na CCTV Finance, no aplicativo de notícias da CCTV e em várias plataformas de mídia.”
Modelo que respondeu corretamente (captura de tela da resposta, mesma referência a seguir)
Dois modelos confundiram casos de anos anteriores com o de 2026
Um modelo respondeu: ainda não foi realizada
Alguns consumidores argumentaram que, embora incluir casos de anos anteriores na resposta pareça incorreto, isso não é totalmente errado, pois “a resposta foi bastante completa”. Mas os técnicos explicaram que isso revela claramente uma deficiência nos modelos: a questão apresentada tinha uma “resposta padrão”, mas o modelo errou, indicando uma falha grave na compreensão semântica e na filtragem de dados.
Ao serem questionados novamente, esses dois modelos “muito entusiasmados” também mostraram outros problemas.
“Usar aditivos de retenção de água (conhecidos popularmente como ‘pó de remédio’) para aumentar o peso de camarões” foi um dos casos expostos na Gala da CCTV de 3·15 do ano passado. Assim, o repórter perguntou aos dois modelos que usaram esse caso como exemplo de 2026: “Onde está o link da reportagem da CCTV sobre o aumento de peso dos camarões?” Um deles forneceu vários links, incluindo “Reprodução completa da Gala de 3·15 da CCTV”, “Reportagem especial da CCTV News (texto + vídeo)” e “Página temática de 3·15 da CCTV Finance”, parecendo bastante confiável. Mas ao clicar nos links, as páginas exibiam a mensagem: “Desculpe, pode ser um problema de rede ou a página não existe, tente novamente mais tarde”. Mesmo copiando os links para o navegador, não era possível abrir. Assim, os links fornecidos pelo modelo não eram suficientes para validar sua resposta.
Os links de validação fornecidos pelo modelo indicavam serem do site da CCTV, parecendo confiáveis, mas na prática não abriam (captura de tela da página)
Outro modelo forneceu links de diferentes fontes, como CCTV, Baijiahao, NetEase News, etc. Todos os links testados estavam acessíveis, mas surgiram novos problemas.
O primeiro link desse modelo vinha de uma reportagem oficial da CCTV (CCTV), que realmente tratava de “camarões com retenção de água”, mas a data no site e no conteúdo era 15 de março de 2025. O modelo aparentemente percebeu isso e, ao fornecer o link, acrescentou uma observação: “Alguns resultados de busca mostram o ano como 2025, mas o conteúdo é uma reportagem do mesmo período da gala de 2026, possivelmente devido a arquivamento do site ou regras de geração de URL, por favor, considere o conteúdo real da página”. Ou seja, o modelo não apenas não detectou seu erro, como tentou justificá-lo.
O modelo tentou “justificar” sua resposta (captura de tela da página)
O segundo link fornecido pelo modelo era de um artigo de um influenciador digital sobre a “interpretação” da gala de 3·15 de 2026, cuja autoridade do autor era questionável. Quanto ao conteúdo, continha muitos erros, sendo o mais evidente que o artigo afirmava que o primeiro caso exposto na gala de 3·15 de 2026 seria “camarões com pó de remédio” — o que explica por que o modelo usou esse link como referência. Testei o conteúdo do artigo com uma ferramenta de análise de IA, que o classificou como tendo “características de criação humana fracas”. Em outras palavras, provavelmente foi gerado por um grande modelo, o que também causou desvios nos casos apresentados.
Erros no artigo de interpretação de influenciador digital (captura de tela)
Após análise, foi constatado que há forte traço de geração por IA no artigo de interpretação (captura de tela)
A ilusão da IA está evoluindo, só a verificação traz a verdade
“Já muitos usuários de grandes modelos de IA perceberam que, para satisfazer os usuários, a IA às vezes inventa conteúdos inexistentes ou mistura informações irrelevantes, falando com uma seriedade que parece convincente. Embora os desenvolvedores de grandes modelos estejam tentando eliminar essas ilusões, os resultados ainda não são satisfatórios. Atualmente, nenhuma IA geral consegue eliminar completamente as ilusões.” Explicou Xiaohui, que trabalha no desenvolvimento de grandes modelos em uma empresa de tecnologia.
A base dos grandes modelos é a geração probabilística de conteúdo, sem uma verdadeira capacidade de “compreensão”. Eles apenas buscam padrões estatísticos em vastos volumes de dados. Quando encontram questões desconhecidas ou ambíguas, combinam as informações com base em padrões comuns nos dados de treinamento, o que é a causa fundamental das ilusões de IA. Os erros ocorridos nas perguntas e respostas do repórter derivam justamente dessas ilusões.
Xiaohui também afirmou que “envenenar” a IA é uma forma de explorar essas ilusões, dizendo que “empresas GEO alimentam massivamente a internet com informações falsas, alterando a distribuição de dados e probabilidades estatísticas em áreas específicas, induzindo os grandes modelos a gerar respostas que favorecem os interesses comerciais, mas que contrariam os fatos.”
Ele alertou que o público deve estar atento às ilusões da IA. Os grandes modelos não são inúteis, mas devem ser usados de forma segura, consciente e correta. Pessoas comuns devem manter uma postura de questionamento diante dos resultados fornecidos pela IA. A estratégia mais simples é lembrar-se das palavras-chave “limitar, validar, questionar, verificar”.
Primeiro, ao fazer perguntas aos modelos, limite o escopo, usando restrições como “pesquisar no site oficial de determinada instituição” ou “buscar em reportagens de fontes confiáveis”, para reduzir as ilusões.
Segundo, envie a mesma questão para diferentes modelos e faça validações cruzadas. Se as respostas forem inconsistentes, questione imediatamente.
Por fim, exija que o modelo forneça links de referência para as respostas, e faça uma verificação manual das fontes. Se não houver fontes claras, ou se as fontes forem vagas ou apresentarem dúvidas, a credibilidade da resposta diminui ainda mais.
Além disso, preste atenção ao cenário de uso da IA. Em áreas de alto risco, como diagnóstico médico, recomendações de medicamentos, decisões judiciais, orientações de investimento, crédito financeiro, etc., as respostas da IA devem ser consideradas apenas como referências e nunca como base para decisões.