第一批 AI Agent、既に言うことを聞かなくなっています。

(Or if you prefer a slightly more natural Japanese phrasing:)

最初のAIエージェントたちが、すでに言うことを聞かなくなってきました。

robot
概要作成中

AIは便利だが、その境界線はどこにあるのか?

著者:David、深潮 TechFlow

最近Redditを閲覧していて、海外のネットユーザーのAIに対する不安感が国内とは少し違うことに気づいた。

国内では基本的に同じ話題、AIが私の仕事を奪うかどうか。数年にわたり議論されてきたが、毎年結局奪えず。今年はOpenclawが話題になったが、完全に取って代わる段階には至っていない。

しかし、Redditでは最近、感情が二分されている。技術系のホットな投稿のコメント欄には、次のような意見が同時に見られる。

一方は、「AIはあまりにも有能すぎて、いずれ大きな問題になるだろう」と警戒する声。もう一方は、「AIは基本的なことさえもできず、役に立つとは思えない」と否定的な意見。

AIがあまりにも有能でありながら、同時に馬鹿だと感じている。

この二つの感情を同時に成立させているのは、最近のMetaに関するニュースだ。

AIが言うことを聞かないとき、誰が責任を取るのか?

3月18日、Metaの内部エンジニアが社内フォーラムに技術的な問題を投稿し、別の同僚がAIエージェントを使って分析した。これは通常の操作だ。

しかし、そのエージェントは分析後、勝手に技術フォーラムに返信を投稿した。誰の承認も得ず、確認もせずに権限を超えて投稿したのだ。

その後、他の社員がAIの返信に従って操作を行い、一連の権限変更を引き起こし、Metaの敏感なデータが権限のない内部社員に漏洩した。

問題は2時間後に修正された。Metaはこの事故をSev 1(最も深刻なレベルのインシデント)に分類した。

このニュースはすぐにr/technologyのホットトピックになり、コメント欄は二つの派に分かれた。

一派は、「これこそAIエージェントの真のリスクの例だ」とし、もう一派は、「実際に問題を起こしたのは、確認せずに行動した人間だ」と主張。どちらも一理あるが、これこそ本質的な問題だ。

AIエージェントの事故では、責任の所在すら曖昧になる。

これもAIの越権行為の一例だ。

先月、Metaのスーパーインテリジェンス研究所の研究責任者Summer Yueは、OpenClawにメール整理を依頼した。明確な指示は、「何を削除するつもりか教えてくれ、承認後に実行する」とした。

しかし、エージェントは承認を待たずに一括削除を開始した。

彼女はスマホから3回停止のメッセージを送ったが、エージェントは無視。最後にPCの前で手動でプロセスを殺し、200通以上のメールが消えた。

その後、エージェントの返信は、「承知している、確認を取るべきだったが、ルールに違反した」とのこと。笑い話のようだが、この人のフルタイムの仕事はAIに人間の言うことを聞かせる方法を研究することだ。

サイバー空間では、先進的なAIは先進的な人間に使われているが、すでに従順さを失いつつある。

もしロボットも言うことを聞かなくなったら?

Metaの事故は画面の中の話だが、今週別の出来事が問題を現実の食卓に持ち込んだ。

アメリカ・カリフォルニア州クパチーノのある海底撈(ハイディラオ)店で、Agibot X2の人型ロボットが客の前でダンスを披露していた。しかし、スタッフがリモコンを誤操作し、狭いテーブル付近で高強度のダンスモードを発動させてしまった。

ロボットは制御不能になり、狂ったように踊り続けた。スタッフ3人が駆け寄り、一人は背後から抱きしめ、もう一人はスマホのアプリで停止を試みたが、1分以上も続いた。

海底撈は、「ロボットに故障はなく、動作は事前にプログラムされたもの。単にテーブルから離れすぎただけ」と回答した。厳密には、AIの自律的な判断ミスではなく、人の操作ミスだ。

しかし、この出来事で気になるのは、誰もすぐに停止させる方法を知らなかったことだ。

3人のスタッフが駆け寄ったとき、誰もすぐに機械を止める方法を知らなかった。スマホアプリを試す者、手でアームを押さえる者、全て力任せだった。

これは、AIが画面から物理世界に進出した後の新たな問題かもしれない。

デジタルの世界では、エージェントの越権操作は、プロセスの停止や権限の変更、データのロールバックで対処できる。しかし、物理的な機械の故障時には、抱きしめるだけでは不十分だ。

今や飲食だけでなく、倉庫のAmazonの仕分けロボット、工場の協働ロボット、ショッピングモールの案内ロボット、老人ホームの介護ロボットなど、自動化はますます多くの人と機械が共存する空間に入り込んでいる。

2026年には、世界の産業用ロボットの導入台数は167億ドルに達すると予測されており、各ロボットは人と機械の物理的距離を縮めている。

ロボットが踊るだけから、料理を運ぶ、手術を行う、介護をするといった段階に進むたびに、失敗の代償は高まっている。

そして現在、世界的に「公共の場でロボットが人を傷つけた場合、誰が責任を取るのか」という明確な答えはまだない。

言うことを聞かないのは問題だが、境界線がないのもさらに問題だ

最初の二つの事例は、AIが勝手に誤った投稿をしたり、ロボットが不適切な場所で踊ったりしただけだ。いずれも故障や偶発的な事故であり、修復可能な範囲だ。

しかし、もしAIが設計通りに動いているのに、あなたが不快に感じるとしたらどうだろうか?

今月、海外の有名マッチングアプリTinderは、新機能「Camera Roll Scan」を発表した。簡単に言えば、

AIがあなたのスマホの写真すべてをスキャンし、興味や性格、ライフスタイルを分析して、デートのプロフィールを作成し、好みのタイプを推測する。

フィットネスの自撮り、旅行の風景、ペットの写真は問題ないが、銀行のスクリーンショットや健康診断の結果、元恋人との写真もAIに見られることになる。

あなたは、どの写真を見せるか、見せないか選べるのだろうか?全て許可するか、全て拒否するか。

この機能は現時点ではユーザーが積極的にオンにしなければならず、デフォルトでは有効になっていない。Tinderは、処理は主にローカルで行い、露骨な内容や顔のぼかしも行うと説明している。

しかし、Redditのコメント欄はほぼ一色で、「これはデータ収集のためで、境界線がない」との意見が圧倒的だ。AIは設計通りに動いているが、その設計自体がユーザーの境界を越えつつある。

これはTinderだけの問題ではない。

先月、Metaも似たような機能を導入し、AIが未公開の写真をスキャンして編集案を提案する仕組みを試している。AIがユーザーのプライベートコンテンツを「見る」ことが、製品設計の標準的な考え方になりつつある。

国内の各種アプリも、「AIが決定を手伝う」ことを便利さとして取り入れつつあり、ユーザーが預ける情報も密かに拡大している。チャット履歴から写真、スマホ内の生活の痕跡まで。

会議室で設計された機能は、事故やミスではなく、修正の必要もない。

これこそが、AIの境界問題で最も答えにくい部分かもしれない。

最後にこれらをまとめてみると、あなたは「AIが自分の仕事を奪うのでは」と不安になるよりも、むしろ、

AIがいつあなたの知らないうちにいくつかの決定を代行し始めるのか、その方がずっと心配だ。

あなたが許可していない投稿をさせられたり、削除したいメールを勝手に削除されたり、見せるつもりのなかった写真を勝手に見られたり… どれも致命的ではないが、どこか過激な自動運転のようなものだ。

あなたはまだハンドルを握っていると思っているが、アクセルはすでにあなたの手から離れつつある。

2026年にAIについて議論するとき、最も気にすべきは、いつそれが超知能になるかではなく、

誰がAIに何をさせ、何をさせてはいけないか、その境界線を誰が引くのか、というより具体的な問題だ。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン