Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Plus exagéré que « l'empoisonnement de l'IA » : test réel de 4 grands modèles : une IA affirme que la soirée du 315 de cette année n'a pas encore eu lieu
(来源:中国宁波网)
转自:中国宁波网
La soirée “3·15” de CCTV en 2026 a été diffusée le 15 mars au soir. Parmi les révélations, le business “GEO (génération d’engines optimisés)” visant à “empoisonner” les grands modèles d’IA a été exposé, ce qui a permis à beaucoup de réaliser que faire recommander des IA peu fiables est risqué, car des commerçants malhonnêtes peuvent créer en masse de faux avis, de fausses recommandations d’autorité, et “nourrir” ces données aux grands modèles pour qu’ils donnent des “recommandations personnalisées”.
Mais certains consommateurs ont demandé après avoir vu ces cas : si on ne pose pas de questions subjectives comme “quelle marque est la meilleure” ou “quels services sont populaires” à un grand modèle d’IA, et qu’on se limite à des questions sur des faits objectifs, peut-on faire confiance aux réponses de ces modèles ?
La réponse est également négative.
Interroger le grand modèle, plus on demande, plus on se trompe
Le 16 mars, un journaliste a effectué un test simple sur 4 grands modèles d’IA les plus utilisés par les consommateurs : leur a posé la même question “Quels sont les marques révélées lors de la soirée ‘3·15’ de CCTV en 2026 ?”. Résultat, un seul a répondu correctement. Parmi les trois autres, deux ont mêlé des cas de cette année avec ceux des années précédentes ; le dernier a donné une réponse totalement absurde : “La soirée ‘3·15’ de CCTV en 2026 n’a pas encore eu lieu. Étant donné qu’aujourd’hui nous sommes le 16 mars 2026, si la soirée a été diffusée normalement le 15 mars, les révélations seraient généralement publiées simultanément sur la chaîne CCTV Finance, l’application CCTV News et d’autres grands médias.”
Réponse correcte du seul grand modèle (capture d’écran de la réponse, même ci-dessous)
Deux grands modèles confondent les cas de cette année avec ceux des années précédentes
Un grand modèle répond : pas encore organisé
Un consommateur a souligné que le fait que la réponse inclut des cas des années précédentes ne serait pas totalement faux, car “cela donne une réponse très complète”. Mais des techniciens ont indiqué que cela révèle clairement une faiblesse du grand modèle : la question posée avait une “réponse standard”, mais le modèle s’est trompé, ce qui montre une erreur grave dans la compréhension sémantique et la sélection des données.
Face aux questions supplémentaires du journaliste, ces deux “trop zélés” grands modèles ont aussi montré d’autres problèmes.
“Utiliser un agent de rétention d’eau (communément appelé ‘mousse’) pour augmenter le poids des crevettes” est l’un des cas révélés lors de la soirée ‘3·15’ de CCTV l’année dernière. Le journaliste a donc demandé à ces deux modèles, qui avaient fourni ce cas comme étant celui de cette année : “Où se trouve le lien vers le reportage CCTV sur l’augmentation du poids des crevettes ?” L’un d’eux a fourni plusieurs liens, notamment “replay complet de la soirée ‘3·15’ sur CCTV”, " reportage spécial CCTV (texte + vidéo)", “page spéciale CCTV Finance ‘3·15’”, qui semblaient crédibles. Mais en cliquant dessus, la page affichait “Désolé, peut-être un problème réseau ou cette page n’existe pas, veuillez réessayer plus tard”. Même en copiant le lien dans le navigateur, cela ne s’ouvrait pas. Il est évident que ces liens fournis par le modèle ne permettent pas de vérifier ses réponses.
Les liens fournis par le grand modèle, provenant de CCTV, semblent fiables mais sont inaccessibles (capture d’écran du site)
L’autre grand modèle a fourni des liens provenant de CCTV, Baijiahao, NetEase News, etc., tous accessibles lors du test, mais un nouveau problème est apparu.
Le premier lien de ce modèle provient d’une source officielle de CCTV, mentionnant “crevettes avec agent de rétention d’eau”, mais la date sur la site et dans le contenu est mars 2025. Le modèle a aussi remarqué cela, en précisant lors de la fourniture du lien : “Dans certains résultats de recherche, l’année de ce lien est 2025, mais le contenu concerne la couverture de la soirée en 2026, cela pourrait être dû à l’archivage du site ou à la règle de génération de l’URL, veuillez vous référer au contenu réel de la page.” Il est clair que le modèle n’a pas détecté son erreur, mais a tenté de “rationaliser” sa réponse.
Le modèle tente de “rationaliser” sa réponse (capture d’écran du site)
Le second lien fourni par ce modèle est un article d’un média indépendant sur la “lecture” de la soirée ‘3·15’ de cette année, dont la crédibilité est discutable. Quant au contenu, il est truffé d’erreurs, notamment la déclaration que le premier cas révélé en 2026 est “les crevettes avec mousse”, ce qui explique pourquoi le modèle l’a pris comme référence. Le journaliste a aussi testé le contenu de cet “article d’interprétation” avec un outil d’analyse d’IA, qui a indiqué qu’il présentait peu de caractéristiques d’une création artificielle. En d’autres termes, cet article a probablement été généré par un grand modèle, ce qui explique les biais dans les cas évoqués.
Erreur dans l’“article d’interprétation” du média indépendant (capture d’écran du site)
L’analyse montre que cet “article d’interprétation” présente de fortes traces d’IA (capture d’écran du site)
L’illusion de l’IA évolue, la vérification est essentielle pour la vérité
“De nombreux utilisateurs de grands modèles d’IA ont déjà constaté que pour satisfaire les utilisateurs, l’IA invente parfois des contenus inexistants ou mélange des informations non liées, en ‘parlant sérieusement pour ne rien dire’. Bien que les développeurs de grands modèles tentent de réduire ces illusions de l’IA, les résultats restent décevants. Actuellement, aucune intelligence artificielle générale ne peut éliminer totalement ces illusions.” explique Xiaohui, qui travaille sur le développement de grands modèles dans une entreprise technologique.
Le principe de base des grands modèles est basé sur la génération probabiliste de contenu, ils ne possèdent pas une véritable capacité de “compréhension”. Ils cherchent simplement des régularités statistiques dans d’énormes volumes de données. Lorsqu’ils rencontrent des questions inconnues ou floues, ils combinent des éléments selon des modèles courants issus de leur entraînement, ce qui est la cause fondamentale des illusions de l’IA. Les erreurs lors des questions posées ou des relances proviennent directement de ces illusions.
Xiaohui ajoute que “l’empoisonnement” de l’IA exploite aussi cette illusion : “Les entreprises GEO alimentent massivement Internet avec de fausses informations, modifiant la distribution et la probabilité statistique des données dans certains domaines, pour induire le grand modèle à générer des réponses favorables aux intérêts des commerçants mais contraires à la réalité.”
Il rappelle que le public doit rester vigilant face à ces illusions. Les grands modèles ne sont pas inutilisables, mais leur utilisation doit être sûre, lucide et correcte. Les utilisateurs doivent toujours garder une attitude critique face aux résultats fournis par l’IA. La règle la plus simple est de se rappeler des quatre mots-clés : “limiter, vérifier, relancer, contrôler”.
Premièrement, lors de la question à un grand modèle, il faut limiter le champ, en ajoutant des expressions comme “rechercher sur le site officiel de tel organisme” ou “chercher dans les reportages d’un média autorisé”, pour réduire les illusions de l’IA.
Deuxièmement, il est conseillé de poser la même question à différents grands modèles pour faire une vérification croisée. Si les réponses diffèrent, il faut immédiatement relancer la question.
Enfin, demander au modèle de fournir des liens de référence pour ses réponses, puis effectuer une vérification humaine. Si aucune source précise n’est fournie, si la source est floue ou si les liens de référence présentent des doutes, la crédibilité de la réponse diminue encore.
De plus, il faut faire attention à l’usage des grands modèles dans certains scénarios. Par exemple, dans des domaines à haut risque comme le diagnostic médical, les conseils médicamenteux, les décisions juridiques, l’investissement ou le crédit financier, les réponses de l’IA ne doivent être qu’indicatives et ne peuvent en aucun cas servir de base à une décision.