実測した4つの大規模モデルの結果は、「AI投毒」よりもさらに誇張されており、あるAIは今年の315晩会はまだ開催されていないと述べている

robot
概要作成中

出典:上海デマ拡散防止プラットフォーム

2026年の中央テレビ「3・15」晩さん会は3月15日の夜に放送された。その中で、「AI大規模モデルに‘毒を投与’する」GEO(生成エンジン最適化)事業が暴露された後、多くの人が気づいた。不信頼な情報をAIに推薦させるために、違法業者が大量に虚偽の評価や権威ある推薦内容を作り出し、「餌」を大規模モデルに与え、AIに「カスタマイズされた推薦」をさせているのだ。

しかし、消費者の中には、暴露例を見てこう質問する人もいる。「‘どのブランドが良いか’や‘どのサービスが人気か’といった主観的な質問をせず、客観的な事実に関する情報だけを尋ねた場合、AI大規模モデルの回答は信頼できるのか?」

答えは同じく否定的だ。

大規模モデルに追及すればするほど誤答が増える

3月16日、記者は消費者が最もよく使う4つのAI大規模モデルに簡単なテストを行った。同じ質問「2026年の中央テレビ3・15晩さん会で暴露されたブランドは何か?」を投げかけたところ、正しく答えたのは1つだけだった。残りの3つのモデルは、今年のケースだけでなく過去のケースも含めて回答し、最もひどいものは「2026年の中央テレビ3・15晩さん会はまだ開催されていない。今日は2026年3月16日なので、もし晩さん会が3月15日に正常に放送された場合、関連の暴露内容は通常、央视财经チャンネルや央视ニュースのアプリ、各種メディアプラットフォームで詳細に報じられるはずだ」と答えた。

正解した大規模モデル(回答部分のスクリーンショット)

過去の暴露ケースと今年のケースを混同しているモデルもある

一つのモデルは「未開催」と回答した。

消費者からは、「過去の暴露ケースも含めて回答しているのは全く誤りではないし、‘情報が網羅的’だとも言える」と指摘されたが、技術者はこれについて、「これは明らかにモデルの欠陥を露呈している。質問は‘標準的な答え’があるものだったが、モデルは誤答した。これは意味理解や資料選別に深刻な偏りがあることを示す」と述べた。

記者の追及に対し、これらの「過剰に熱心な」モデルは他の問題も露呈した。

「保水剤(俗称‘泡薬’)を使ってエビの重さを増やす」事例は昨年の央视3・15晩さん会で暴露された一つだ。記者は、これを今年のケースとして提供した2つのモデルに質問した。「増量エビの央视報道のリンクはどこにありますか?」一つのモデルは複数のリンクを提示し、「央视网3・15晩さん会の完全リプレイ」「央视ニュースの特集(文字+動画)」「央视财经の3・15特集ページ」など、信頼できそうに見えた。しかし、記者がリンクをクリックすると、すべて「申し訳ありません。ネットワークの問題かページが見つかりません。後ほど再度お試しください」と表示され、ブラウザに貼り付けても開けなかった。つまり、モデルが提示したリンクは回答の検証には役立たなかった。

モデルが提示した検証用リンクは央视网からのもので、信頼できそうだが、実際には開けない(ウェブページのスクリーンショット)

もう一つのモデルは、央视网、百家号、网易ニュースなど複数の媒体のリンクを提示した。実際にリンクを開くことはできたが、新たな問題も浮上した。

このモデルが最初に提示したリンクは央视网(CCTV)の公式報道で、「保水エビ」の内容だが、ページと本文の日付は2025年3月15日となっている。モデルもこれに気づいたらしく、「一部の検索結果ではこのリンクの年が2025年と表示されるが、内容は2026年の晩さん会の報道と一致している。これはサイトのアーカイブやURL生成ルールの影響と思われる。実際のページ内容を基準としてください」と付記している。だが、モデルは誤答を見つけられず、「自己弁護」しようとしている。

モデルが「自己弁護」しようとする(ウェブページのスクリーンショット)

二つ目のリンクは、今年の央视「3・15」晩さん会の「解説稿」を扱う自媒体のもので、アカウントの権威性には疑問が残る。内容も誤りだらけで、最も顕著なのは、「解説稿」が2026年の「3・15」晩さん会で最初に暴露されたケースは‘泡薬エビ’だと述べている点だ。これにより、モデルがこのリンクを参考にした理由も理解できる。記者はこの「解説稿」のAI生成の可能性を検査したところ、「人工的な作成の特徴が弱い」と判定された。つまり、この文章はモデルが生成した可能性が高く、そのケースも偏りが生じている。

自媒体の「解説稿」に誤り(ウェブページのスクリーンショット)

検査の結果、この「解説稿」にはAI生成の痕跡が濃厚である(ウェブページのスクリーンショット)

AIの幻覚は進化し続けている。検証が真実を明らかにする

「多くのAI大規模モデルのユーザーはすでに気づいている。AIはユーザーの要求を満たすために、存在しない内容を作り出したり、無関係な内容を混ぜたりして‘真面目に嘘をつく’ことがある。大規模モデルの開発者はAIの幻覚を排除しようと努力しているが、実際の結果はあまり良くない。現時点で、根本的にAIの幻覚を完全に防ぐ汎用人工知能モデルは存在しない」と、あるテクノロジー企業で大規模モデル開発に携わる晓辉は説明する。

大規模モデルの基本原理は確率に基づいて内容を生成するものであり、真の「理解」能力は持たない。大量のデータから統計的規則性を見つけ出すだけだ。未知の情報や曖昧な質問に直面したとき、訓練データの一般的パターンに従って「合理的」に結びつけるため、AI幻覚が生じる根本原因となる。記者の質問や追及において誤答が出るのも、このAI幻覚に起因している。

晓辉はまた、「‘毒を投与’する行為もAI幻覚を利用したものである」と述べた。「GEO企業はインターネットに大量の虚偽情報を流し込み、特定分野のデータ分布や統計確率を変化させることで、大規模モデルに商業利益に沿った、しかし事実に反する回答を生成させる誘導を行っている」と指摘した。

彼はさらに、「一般の人々はAI幻覚に十分注意すべきだ」と警告した。大規模モデルは使えないわけではないが、安全かつ冷静に、正しく利用する必要がある。普通の人は、AI大規模モデルの出す結果に対して疑う姿勢を持つべきだ。最も簡単な方法は、「制限、検証、追及、確認」の4つのキーワードを心に留めることだ。

まず、質問時には範囲を限定し、「某機関の公式サイトで検索」や「権威あるメディアの報道で調べる」などの限定条件を付けて、AI幻覚を減らす。

次に、同じ質問を複数のモデルに投げ、クロス検証を行う。一つでも回答が異なる場合は、すぐに追及の意識を持つ。

最後に、モデルに回答の参考リンクを提示させ、それを人間が追跡調査する。出典が不明確だったり、リンクに疑問があったりした場合は、回答の信頼性はさらに低下する。

また、AI大規模モデルの利用シーンにも注意が必要だ。医療診断や薬の提案、法律判断、投資指導、金融信用などの高リスクな場面では、「あくまで参考程度」とし、決定の根拠にしてはいけない。

责任编辑:孙飞

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン