AIチャットボットを検索エンジンとして使う?信じることには注意しましょう

(MENAFN-ザ・コンバセーション) 第一次世界大戦中、イギリス政府は人々が限られた食料をやりくりできる方法を模索していました。彼らは19世紀の著名なハーブ療法士のパンフレットを見つけました。その中には、ルバーブの葉も茎と一緒に野菜として使えると記されていました。

政府はこれを受けて、自らパンフレットを印刷し、人々にルバーブの葉を捨てずにサラダとして食べるよう勧めました。しかし、ひとつ問題がありました:ルバーブの葉は有毒である可能性があるのです。報告によると、これを食べた人々が死亡したり、病気になったりしました。

その後、助言は訂正され、パンフレットは流通から撤去されました。しかし第二次世界大戦中、政府は再び食料をやりくりする方法を探していました。

彼らは前回の戦争からの古い資料のストックを見つけ、そこにはルバーブの葉を含む非常識な食料源についての説明がありました。パンフレットを再利用するのは効率的だと考え、一般に配布されました。再び、人々が死亡したり、病気になったりする事例が報告されました。

これらのパンフレットは誤情報でしたが、当時の人々はそれが誤りであるとは疑わなかったのです。これらは政府が作成した公式資料だったからです。なぜ安全でないはずがあるでしょうか?

このように、誤情報は最初の誤りが修正された後でも問題を引き起こすことがあります。そして、この教訓は生成型人工知能(AI)の時代にもなお響いています。

チャットボットは検索エンジンではない

生成型AIは、取り込んだ元の情報に基づいてテキストや画像(その他のデータも含む)を生成します。しかし、これらは人々が安全な情報や事実確認を行うよりも速く誤情報を生み出すエンジンにもなり得ます。

ルバーブの話が示すように、訂正は必ずしも元の汚染を完全に除去できるわけではありません。

ChatGPTやClaudeのようなAIプラットフォームは、従来の検索エンジンのようには動作しません。しかし、多くの人はそれらを検索エンジンの代わりとして使います。なぜなら、複雑なトピックを素早く要約し、従来のインターネット検索よりもクリック数が少なく済むからです。

検索エンジンは特定のトピックに関する記事やテキストに依存し、それらの信頼性を評価します。一方、生成型AIは膨大なテキストの集合から、次に来る可能性の高い言葉を測定して文章を生成します。

これらの「大規模言語モデル」は、正確さよりも見た目の良い文章を生成することを目的としています。

例えば、「グリーンエッグとハム」が頻繁に出現すれば、誰かが尋ねたときに「卵とハム」が緑色だと説明する可能性が高まります。

「もっともらしいが誤っている」

OpenAIは、ChatGPTを開発した企業であり、(自身の研究に基づき)生成型AIの仕組み上、誤った情報を真実として提示してしまうことを止められないと認めています。大規模言語モデルが「幻覚」を見る理由について、研究者たちは次のように述べています。

これは現実世界に影響を及ぼすことがあります。最近の研究では、ChatGPTは医療緊急事態を認識できなかったケースが半数以上に上ることが示されました。これは、既存の医療記録の誤りが影響しており、2025年の英国の調査では、患者の4人に1人に影響を与えていると指摘されています。

医師は診断を確定するために追加の検査を命じるかもしれませんが、ある研究者は、生成型AIは「正しい答えと同じ自信を持って誤った答えを出す」と説明しています。

もう一人の科学者が指摘するように、問題は生成型AIが「パターンを見つけて模倣する」ことにあります。正しいか間違っているかは本質的な問題ではありません。「文章を作るつもりだったのに、そうしただけだ」と。

研究によると、生成型AIツールは、言語や地域に関係なく、ニュースの誤表現を45%の確率で行っています。さらに、存在しない登山ルートを生成して命に関わるリスクをもたらす可能性も懸念されています。

岩を食べたり、ピザのトッピングを接着剤で留めたりといったアドバイスは、笑い話にできますが、

スーパーマーケットの食事プランナーが塩素ガスを生成するレシピを提案したり、長期的に臭素に曝露される食事のアドバイスをしたりといった例は、あまり面白くありません。

古い情報に注意

教育や、生成型AIの適切かつ慎重な利用に関するルールの確立は、特に政府や官庁、複雑な組織に浸透していく中で重要となるでしょう。

政治家もすでに日常業務や政策調査に生成型AIを利用しています。病院の救急部門では、患者の記録を取るためにAIツールを使い、時間を節約しています。

一つの安全策は、AIによる汚染前の信頼できる情報源をできるだけ多く見つけることです。

その作業を支援するツールも存在し、オーストラリアのアーティストTega Brainが作成した「ChatGPTの最初の公開リリース(2022年11月30日)以前に作成されたコンテンツのみを返す」ツールもあります。

最後に、この冒頭の話を事実確認したい場合は、古典的な書籍に頼るのも良いでしょう。イギリス政府が二度にわたりルバーブ中毒を推奨した歴史については、『Poison Garden’s A-Z of Poisonous Plants』や『Botanical Curses and Poisons: The Shadow Lives of Plants』に記されています。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン