Plus exagéré que « l'empoisonnement de l'IA » : test réel de 4 grands modèles : une IA affirme que la soirée du 315 de cette année n'a pas encore eu lieu

robot
Création du résumé en cours

(来源:中国宁波网)

转自:中国宁波网

La soirée “3·15” de CCTV en 2026 a été diffusée le 15 mars au soir. Parmi les révélations, le business “GEO (génération d’engines optimisés)” visant à “empoisonner” les grands modèles d’IA a été exposé, ce qui a permis à beaucoup de réaliser que faire recommander des IA peu fiables est risqué, car des commerçants malhonnêtes peuvent créer en masse de faux avis, de fausses recommandations d’autorité, et “nourrir” ces données aux grands modèles pour qu’ils donnent des “recommandations personnalisées”.

Mais certains consommateurs ont demandé après avoir vu ces cas : si on ne pose pas de questions subjectives comme “quelle marque est la meilleure” ou “quels services sont populaires” à un grand modèle d’IA, et qu’on se limite à des questions sur des faits objectifs, peut-on faire confiance aux réponses de ces modèles ?

La réponse est également négative.

Interroger le grand modèle, plus on demande, plus on se trompe

Le 16 mars, un journaliste a effectué un test simple sur 4 grands modèles d’IA les plus utilisés par les consommateurs : leur a posé la même question “Quels sont les marques révélées lors de la soirée ‘3·15’ de CCTV en 2026 ?”. Résultat, un seul a répondu correctement. Parmi les trois autres, deux ont mêlé des cas de cette année avec ceux des années précédentes ; le dernier a donné une réponse totalement absurde : “La soirée ‘3·15’ de CCTV en 2026 n’a pas encore eu lieu. Étant donné qu’aujourd’hui nous sommes le 16 mars 2026, si la soirée a été diffusée normalement le 15 mars, les révélations seraient généralement publiées simultanément sur la chaîne CCTV Finance, l’application CCTV News et d’autres grands médias.”

Réponse correcte du seul grand modèle (capture d’écran de la réponse, même ci-dessous)

Deux grands modèles confondent les cas de cette année avec ceux des années précédentes

Un grand modèle répond : pas encore organisé

Un consommateur a souligné que le fait que la réponse inclut des cas des années précédentes ne serait pas totalement faux, car “cela donne une réponse très complète”. Mais des techniciens ont indiqué que cela révèle clairement une faiblesse du grand modèle : la question posée avait une “réponse standard”, mais le modèle s’est trompé, ce qui montre une erreur grave dans la compréhension sémantique et la sélection des données.

Face aux questions supplémentaires du journaliste, ces deux “trop zélés” grands modèles ont aussi montré d’autres problèmes.

“Utiliser un agent de rétention d’eau (communément appelé ‘mousse’) pour augmenter le poids des crevettes” est l’un des cas révélés lors de la soirée ‘3·15’ de CCTV l’année dernière. Le journaliste a donc demandé à ces deux modèles, qui avaient fourni ce cas comme étant celui de cette année : “Où se trouve le lien vers le reportage CCTV sur l’augmentation du poids des crevettes ?” L’un d’eux a fourni plusieurs liens, notamment “replay complet de la soirée ‘3·15’ sur CCTV”, " reportage spécial CCTV (texte + vidéo)", “page spéciale CCTV Finance ‘3·15’”, qui semblaient crédibles. Mais en cliquant dessus, la page affichait “Désolé, peut-être un problème réseau ou cette page n’existe pas, veuillez réessayer plus tard”. Même en copiant le lien dans le navigateur, cela ne s’ouvrait pas. Il est évident que ces liens fournis par le modèle ne permettent pas de vérifier ses réponses.

Les liens fournis par le grand modèle, provenant de CCTV, semblent fiables mais sont inaccessibles (capture d’écran du site)

L’autre grand modèle a fourni des liens provenant de CCTV, Baijiahao, NetEase News, etc., tous accessibles lors du test, mais un nouveau problème est apparu.

Le premier lien de ce modèle provient d’une source officielle de CCTV, mentionnant “crevettes avec agent de rétention d’eau”, mais la date sur la site et dans le contenu est mars 2025. Le modèle a aussi remarqué cela, en précisant lors de la fourniture du lien : “Dans certains résultats de recherche, l’année de ce lien est 2025, mais le contenu concerne la couverture de la soirée en 2026, cela pourrait être dû à l’archivage du site ou à la règle de génération de l’URL, veuillez vous référer au contenu réel de la page.” Il est clair que le modèle n’a pas détecté son erreur, mais a tenté de “rationaliser” sa réponse.

Le modèle tente de “rationaliser” sa réponse (capture d’écran du site)

Le second lien fourni par ce modèle est un article d’un média indépendant sur la “lecture” de la soirée ‘3·15’ de cette année, dont la crédibilité est discutable. Quant au contenu, il est truffé d’erreurs, notamment la déclaration que le premier cas révélé en 2026 est “les crevettes avec mousse”, ce qui explique pourquoi le modèle l’a pris comme référence. Le journaliste a aussi testé le contenu de cet “article d’interprétation” avec un outil d’analyse d’IA, qui a indiqué qu’il présentait peu de caractéristiques d’une création artificielle. En d’autres termes, cet article a probablement été généré par un grand modèle, ce qui explique les biais dans les cas évoqués.

Erreur dans l’“article d’interprétation” du média indépendant (capture d’écran du site)

L’analyse montre que cet “article d’interprétation” présente de fortes traces d’IA (capture d’écran du site)

L’illusion de l’IA évolue, la vérification est essentielle pour la vérité

“De nombreux utilisateurs de grands modèles d’IA ont déjà constaté que pour satisfaire les utilisateurs, l’IA invente parfois des contenus inexistants ou mélange des informations non liées, en ‘parlant sérieusement pour ne rien dire’. Bien que les développeurs de grands modèles tentent de réduire ces illusions de l’IA, les résultats restent décevants. Actuellement, aucune intelligence artificielle générale ne peut éliminer totalement ces illusions.” explique Xiaohui, qui travaille sur le développement de grands modèles dans une entreprise technologique.

Le principe de base des grands modèles est basé sur la génération probabiliste de contenu, ils ne possèdent pas une véritable capacité de “compréhension”. Ils cherchent simplement des régularités statistiques dans d’énormes volumes de données. Lorsqu’ils rencontrent des questions inconnues ou floues, ils combinent des éléments selon des modèles courants issus de leur entraînement, ce qui est la cause fondamentale des illusions de l’IA. Les erreurs lors des questions posées ou des relances proviennent directement de ces illusions.

Xiaohui ajoute que “l’empoisonnement” de l’IA exploite aussi cette illusion : “Les entreprises GEO alimentent massivement Internet avec de fausses informations, modifiant la distribution et la probabilité statistique des données dans certains domaines, pour induire le grand modèle à générer des réponses favorables aux intérêts des commerçants mais contraires à la réalité.”

Il rappelle que le public doit rester vigilant face à ces illusions. Les grands modèles ne sont pas inutilisables, mais leur utilisation doit être sûre, lucide et correcte. Les utilisateurs doivent toujours garder une attitude critique face aux résultats fournis par l’IA. La règle la plus simple est de se rappeler des quatre mots-clés : “limiter, vérifier, relancer, contrôler”.

Premièrement, lors de la question à un grand modèle, il faut limiter le champ, en ajoutant des expressions comme “rechercher sur le site officiel de tel organisme” ou “chercher dans les reportages d’un média autorisé”, pour réduire les illusions de l’IA.

Deuxièmement, il est conseillé de poser la même question à différents grands modèles pour faire une vérification croisée. Si les réponses diffèrent, il faut immédiatement relancer la question.

Enfin, demander au modèle de fournir des liens de référence pour ses réponses, puis effectuer une vérification humaine. Si aucune source précise n’est fournie, si la source est floue ou si les liens de référence présentent des doutes, la crédibilité de la réponse diminue encore.

De plus, il faut faire attention à l’usage des grands modèles dans certains scénarios. Par exemple, dans des domaines à haut risque comme le diagnostic médical, les conseils médicamenteux, les décisions juridiques, l’investissement ou le crédit financier, les réponses de l’IA ne doivent être qu’indicatives et ne peuvent en aucun cas servir de base à une décision.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler