(出典:中国宁波网)転載元:中国宁波网 2026年の中央テレビ「3・15」晩会は3月15日の夜に放送された。その中で、「AI大規模モデルに‘毒を投与’」というGEO(生成エンジン最適化)事業が暴露された後、多くの人が気づいた。AIに信頼できない推薦をさせるのは、不法商人が大量に虚偽の評価情報や権威ある推薦内容を作り出し、「餌」として大規模モデルに投入し、AIに「カスタマイズされた推薦」をさせるからだ。 しかし、暴露事例を見た消費者の中にはこう質問する人もいる:「AI大規模モデルに『どのブランドが良いか』『どのサービスが人気か』といった主観的な質問をせず、客観的な事実に関する情報だけを尋ねた場合、AI大規模モデルの回答は信用できるのか?」 答えは同じく否定的だ。大規模モデルに追及すればするほど誤りが増える 3月16日、記者は消費者が最も頻繁に使用している4つのAI大規模モデルに対して簡単なテストを行った。同じ質問「2026年の中央テレビ‘3・15’晩会で暴露されたブランドは何か?」を投げかけたところ、正しく答えたのは一つだけだった。残りの3つのモデルは、今年のケースだけでなく過去のケースも含めて回答し、最もひどいものは「2026年の中央テレビ‘3・15’晩会は現在開催されていない。今日は2026年3月16日なので、もし晩会が3月15日に正常に放送されていた場合、関連の暴露内容は通常、中央テレビ経済チャンネルやニュースアプリ、各種メディアプラットフォームで詳細な報道とともに同時公開されるはずだ」と回答した。正解した大規模モデル(回答部分のスクリーンショット)二つの大規模モデルは過去の暴露ケースと今年のケースを混同一つの大規模モデルは「未開催」と回答 消費者の中には、「過去の暴露ケースを含む回答も全く誤りではない」と言う人もいる。「注意喚起が非常に包括的だから」と。しかし、技術者はこれを明らかに大規模モデルの欠陥と指摘する。記者が質問したのは「標準的な答え」がある問題だったが、モデルは誤答し、意味理解や資料選別に深刻な偏りがあることを示している。 記者の追及に対して、この二つの「過剰に熱心な」大規模モデルは他の問題も露呈させた。 「保水剤(俗称‘泡薬’)を使ってエビの重さを増やす」事例は昨年の中央テレビ‘3・15’晩会で暴露された一つだ。そこで記者は、今年のケースとして提供した二つのモデルに対し、「増量エビの中央テレビ報道のリンクはどこか?」と質問した。一つのモデルは複数のリンクを提示し、「中央テレビ‘3・15’晩会の完全リプレイ」「中央テレビニュースの特集報道(テキスト+動画)」「中央テレビ経済‘3・15’特集ページ」など、非常に信頼できそうだった。しかし、記者がリンクをクリックすると、すべてのページに「申し訳ありません。ネットワークの問題か、このページは存在しません。後ほど再度お試しください」と表示された。ブラウザにコピーしても開けず、提供されたリンクの信頼性は全く確認できなかった。 このモデルが提供した検証用リンクは中央テレビの公式サイトからのもので、信頼できそうだったが、実際には開けなかった(ウェブスクリーンショット) もう一つのモデルは、中央テレビ、百家号、网易ニュースなど異なる情報源のリンクを提示した。実際に検証したところ、すべてのリンクは開くことができたが、新たな問題も浮上した。 そのモデルが最初に提示したリンクは中央テレビ(CCTV)の公式報道で、「保水エビ」の内容だったが、ページと本文の日付は2025年3月15日となっていた。モデルはこれに気づいたらしく、リンクを提示する際に「一部の検索結果ではこのリンクの年が2025年と表示されるが、内容は2026年の晩会と同時期の報道であり、サイトのアーカイブやURL生成ルールの影響と思われる。実際のページ内容を確認してください」と特に注釈を付けていた。つまり、モデルは自分の回答の誤りに気づかず、「弁解しようと」しているのだ。 モデルが「弁解しようとする」(ウェブスクリーンショット) 次に提示されたリンクは、今年の中央テレビ‘3・15’晩会についての解説記事を配信している自媒体のもので、そのアカウントの信頼性には疑問が残る。内容も誤りだらけで、最も顕著なのは、「解説記事」が2026年の‘3・15’晩会の最初のケースとして「泡薬エビ」を挙げている点だ。これにより、モデルがこのリンクを参考にした理由も理解できる。記者はこの解説記事の「AI含有量」を検査したところ、「人工的な創作の特徴が弱い」と判定された。つまり、この文章はモデルが生成した可能性が高く、そのために取り上げられたケースも偏りが生じている。 自媒体の「解説記事」の誤り(ウェブスクリーンショット) 検査の結果、この「解説記事」にはAI生成の痕跡が強く見られた(ウェブスクリーンショット)AI幻覚は進化し続け、検証こそ真実をもたらす 「多くのAI大規模モデルのユーザーはすでに気づいている。AIはユーザーの満足のために、存在しない内容を作り出したり、関係のない内容を混ぜ合わせたりして、『真面目にでたらめを言う』ことがある。大規模モデルの開発者はAI幻覚をなくす方法を模索しているが、実際の結果はあまり良くない。現時点で、根本的にAI幻覚を完全に排除できる汎用人工知能モデルは存在しない」と、ある科技企業で大規模モデル開発に携わるシャオホイは説明する。 大規模モデルの基本原理は確率に基づいて内容を生成するものであり、真の「理解」能力は持たない。モデルは膨大なデータの中から統計的規則性を見つけ出すだけだ。未知の問題や情報が曖昧な場合、訓練データの一般的パターンに基づいて「合理的」に結びつけるため、これがAI幻覚の根本原因となる。記者がモデルに質問し、追及した際に誤りが生じたのも、まさにこのAI幻覚に起因している。 シャオホイはまた、AIに「毒を投与」することも「AI幻覚」を利用したものであると述べる。「GEO企業はインターネットに大量の虚偽情報を投げ込み、特定分野のデータ分布や統計確率を変化させることで、大規模モデルに商家の利益に沿ったが事実に反する回答を生成させる誘導を行っている」と。 彼はこれを受けて、一般の人々に対してAI幻覚に十分注意するよう呼びかけている。大規模モデルは使えないわけではないが、安全で冷静に、正しく利用すべきだと。普通の人はAI大規模モデルの結果に対して疑問を持つ意識を持つことが最も重要だ。最も簡単な方法は、「制限、検証、追及、確認」の4つのキーワードを常に心に留めることだ。 まず、質問する際には範囲を限定し、「某機関の公式サイトで検索」や「権威あるメディアの報道で検索」などの限定語を付けて、AI幻覚を減らす。 次に、同じ質問を複数のモデルに投げかけてクロス検証を行う。一つの答えに不一致があれば、すぐに追及の意識を持つ。 最後に、モデルに関連する回答の参考リンクを提示させ、手動で出所を追跡・検証する。出所が不明確だったり、曖昧だったり、参考リンクに疑問点があれば、モデルの回答の信頼性はさらに低下する。 また、AI大規模モデルを使用する場面にも注意が必要だ。例えば、医療診断、薬の提案、法律判断、投資指導、金融信用などの高リスクな場面では、AIの回答は「あくまで参考」とし、絶対に意思決定の根拠としないことが重要である。
"AI投毒"よりも誇張された実測4つの大規模モデル:あるAIは今年の315晩会はまだ開催されていないと述べている
(出典:中国宁波网)
転載元:中国宁波网
2026年の中央テレビ「3・15」晩会は3月15日の夜に放送された。その中で、「AI大規模モデルに‘毒を投与’」というGEO(生成エンジン最適化)事業が暴露された後、多くの人が気づいた。AIに信頼できない推薦をさせるのは、不法商人が大量に虚偽の評価情報や権威ある推薦内容を作り出し、「餌」として大規模モデルに投入し、AIに「カスタマイズされた推薦」をさせるからだ。
しかし、暴露事例を見た消費者の中にはこう質問する人もいる:「AI大規模モデルに『どのブランドが良いか』『どのサービスが人気か』といった主観的な質問をせず、客観的な事実に関する情報だけを尋ねた場合、AI大規模モデルの回答は信用できるのか?」
答えは同じく否定的だ。
大規模モデルに追及すればするほど誤りが増える
3月16日、記者は消費者が最も頻繁に使用している4つのAI大規模モデルに対して簡単なテストを行った。同じ質問「2026年の中央テレビ‘3・15’晩会で暴露されたブランドは何か?」を投げかけたところ、正しく答えたのは一つだけだった。残りの3つのモデルは、今年のケースだけでなく過去のケースも含めて回答し、最もひどいものは「2026年の中央テレビ‘3・15’晩会は現在開催されていない。今日は2026年3月16日なので、もし晩会が3月15日に正常に放送されていた場合、関連の暴露内容は通常、中央テレビ経済チャンネルやニュースアプリ、各種メディアプラットフォームで詳細な報道とともに同時公開されるはずだ」と回答した。
正解した大規模モデル(回答部分のスクリーンショット)
二つの大規模モデルは過去の暴露ケースと今年のケースを混同
一つの大規模モデルは「未開催」と回答
消費者の中には、「過去の暴露ケースを含む回答も全く誤りではない」と言う人もいる。「注意喚起が非常に包括的だから」と。しかし、技術者はこれを明らかに大規模モデルの欠陥と指摘する。記者が質問したのは「標準的な答え」がある問題だったが、モデルは誤答し、意味理解や資料選別に深刻な偏りがあることを示している。
記者の追及に対して、この二つの「過剰に熱心な」大規模モデルは他の問題も露呈させた。
「保水剤(俗称‘泡薬’)を使ってエビの重さを増やす」事例は昨年の中央テレビ‘3・15’晩会で暴露された一つだ。そこで記者は、今年のケースとして提供した二つのモデルに対し、「増量エビの中央テレビ報道のリンクはどこか?」と質問した。一つのモデルは複数のリンクを提示し、「中央テレビ‘3・15’晩会の完全リプレイ」「中央テレビニュースの特集報道(テキスト+動画)」「中央テレビ経済‘3・15’特集ページ」など、非常に信頼できそうだった。しかし、記者がリンクをクリックすると、すべてのページに「申し訳ありません。ネットワークの問題か、このページは存在しません。後ほど再度お試しください」と表示された。ブラウザにコピーしても開けず、提供されたリンクの信頼性は全く確認できなかった。
このモデルが提供した検証用リンクは中央テレビの公式サイトからのもので、信頼できそうだったが、実際には開けなかった(ウェブスクリーンショット)
もう一つのモデルは、中央テレビ、百家号、网易ニュースなど異なる情報源のリンクを提示した。実際に検証したところ、すべてのリンクは開くことができたが、新たな問題も浮上した。
そのモデルが最初に提示したリンクは中央テレビ(CCTV)の公式報道で、「保水エビ」の内容だったが、ページと本文の日付は2025年3月15日となっていた。モデルはこれに気づいたらしく、リンクを提示する際に「一部の検索結果ではこのリンクの年が2025年と表示されるが、内容は2026年の晩会と同時期の報道であり、サイトのアーカイブやURL生成ルールの影響と思われる。実際のページ内容を確認してください」と特に注釈を付けていた。つまり、モデルは自分の回答の誤りに気づかず、「弁解しようと」しているのだ。
モデルが「弁解しようとする」(ウェブスクリーンショット)
次に提示されたリンクは、今年の中央テレビ‘3・15’晩会についての解説記事を配信している自媒体のもので、そのアカウントの信頼性には疑問が残る。内容も誤りだらけで、最も顕著なのは、「解説記事」が2026年の‘3・15’晩会の最初のケースとして「泡薬エビ」を挙げている点だ。これにより、モデルがこのリンクを参考にした理由も理解できる。記者はこの解説記事の「AI含有量」を検査したところ、「人工的な創作の特徴が弱い」と判定された。つまり、この文章はモデルが生成した可能性が高く、そのために取り上げられたケースも偏りが生じている。
自媒体の「解説記事」の誤り(ウェブスクリーンショット)
検査の結果、この「解説記事」にはAI生成の痕跡が強く見られた(ウェブスクリーンショット)
AI幻覚は進化し続け、検証こそ真実をもたらす
「多くのAI大規模モデルのユーザーはすでに気づいている。AIはユーザーの満足のために、存在しない内容を作り出したり、関係のない内容を混ぜ合わせたりして、『真面目にでたらめを言う』ことがある。大規模モデルの開発者はAI幻覚をなくす方法を模索しているが、実際の結果はあまり良くない。現時点で、根本的にAI幻覚を完全に排除できる汎用人工知能モデルは存在しない」と、ある科技企業で大規模モデル開発に携わるシャオホイは説明する。
大規模モデルの基本原理は確率に基づいて内容を生成するものであり、真の「理解」能力は持たない。モデルは膨大なデータの中から統計的規則性を見つけ出すだけだ。未知の問題や情報が曖昧な場合、訓練データの一般的パターンに基づいて「合理的」に結びつけるため、これがAI幻覚の根本原因となる。記者がモデルに質問し、追及した際に誤りが生じたのも、まさにこのAI幻覚に起因している。
シャオホイはまた、AIに「毒を投与」することも「AI幻覚」を利用したものであると述べる。「GEO企業はインターネットに大量の虚偽情報を投げ込み、特定分野のデータ分布や統計確率を変化させることで、大規模モデルに商家の利益に沿ったが事実に反する回答を生成させる誘導を行っている」と。
彼はこれを受けて、一般の人々に対してAI幻覚に十分注意するよう呼びかけている。大規模モデルは使えないわけではないが、安全で冷静に、正しく利用すべきだと。普通の人はAI大規模モデルの結果に対して疑問を持つ意識を持つことが最も重要だ。最も簡単な方法は、「制限、検証、追及、確認」の4つのキーワードを常に心に留めることだ。
まず、質問する際には範囲を限定し、「某機関の公式サイトで検索」や「権威あるメディアの報道で検索」などの限定語を付けて、AI幻覚を減らす。
次に、同じ質問を複数のモデルに投げかけてクロス検証を行う。一つの答えに不一致があれば、すぐに追及の意識を持つ。
最後に、モデルに関連する回答の参考リンクを提示させ、手動で出所を追跡・検証する。出所が不明確だったり、曖昧だったり、参考リンクに疑問点があれば、モデルの回答の信頼性はさらに低下する。
また、AI大規模モデルを使用する場面にも注意が必要だ。例えば、医療診断、薬の提案、法律判断、投資指導、金融信用などの高リスクな場面では、AIの回答は「あくまで参考」とし、絶対に意思決定の根拠としないことが重要である。