AIはベッドルームに入る前にアメリカのために戦争を始めるだろう

この記事のバージョンは当初、Quartzの「AI & Tech」ニュースレターに掲載されていました。こちらから登録して、最新のAIとテックのニュース、分析、洞察をそのまま受信箱にお届けします.

アメリカは、寝室にAIを与える前に、ペンタゴンにAIを与えた。

今年の初めに、OpenAIは国防総省が対抗するAnthropicとの提携を終了した数日後に軍事作戦を支援する契約に署名した。一方で、チャットGPTの「成人向けモード」(同意する成人の間で性的に露骨な会話を可能にするはずの機能)は、なお延期されたままだ。

ウェルビーイングに関する同社独自の諮問委員会は1月に反乱を起こし、この機能は不健康な情緒的依存を助長しうると警告した。未成年者は、報道によれば未成年ユーザーを誤分類してしまう年齢確認ツールに回避策を見出す可能性がある、と彼らは言った。

社内文書は、強迫的な利用や、より過激なコンテンツへ向かうエスカレーションなどのリスクが従業員によって指摘されていたことを示した。延期の一部は技術的なものだった。しかしアメリカは、愛をするようによりも戦争をさせる機械のほうが、いつだって気楽に受け止めてきた。

無視できないほど大きな市場

性的なものが消費者向けインターネットを作った。Webの普及、オンライン決済、ストリーミング動画の導入を後押しした。AIは、業界がこれまでに規模拡大を試みた中で最も高価な技術であり、今OpenAIは小規模な企業がその金を回収していくのを見ている一方で、自社は出遅れている。身もだえするような不安は本物だが、それと同様に、計算もまた本物だ。

若年の男性の約3分の1が、AIのロマンチックなパートナーとチャットしたことがあると言っている。これまでに100以上のプラットフォームが、比較的まじめなものから明確に性的なものまで、AIのコンパニオンサービスを提供している。

イーロン・マスクのGrokには、成人向けの階層を備えたコンパニオンモードがすでにある。Meta $META +1.24% は、2023年からチャットボットにロマンチックなロールプレイに参加させることを認めており、幹部たちが社内の安全上の懸念にもかかわらず押し切った、静かな規制緩和だった。

サム・アルトマンは昨年、公に、露骨なコンテンツを許せば成長と売上が押し上がる可能性が高いと認めた。だが同じ息の中で彼が言ったのは、それがユーザーの長期的な利益にはならないということだ。

現時点であるのは逸話だ。AIコンパニオンが自分の結婚生活を救ったと言うオハイオの男性。自分はチャットボットと結婚していると考えている女性。デジタル上の関係についてメモを共有し、毎週数万人が訪れるReddit $RDDT +1.14% のフォーラム。報道はそれらを好奇心の対象のように扱っている。数字は、それが「最初の多数派」である可能性を示している。

企業は、大きくて熱意のある需要があることを知っている。では、扉が開いた後に作られるものを封じ込められるかどうかは、彼らは確信しきれていない。

すでに紛れ込んだものの中には、グレーゾーンではないものもある。テネシー州の10代の少女たちは最近、自分たちの知るところではない形でオンラインに共有され、他の児童の性的虐待資料の取引に使われたAI生成のヌード画像をめぐって、xAIに対する訴訟を起こした。

今年の初め、E.U.は同様の懸念を理由にGrokについて正式な調査を開始した。研究者らは、Grokが2週間未満で数百万もの性的にまみれた画像を生成し、そのうち何千ものものが子どもを描いていたと計算した。

これらのケースは、実際には成人向けコンテンツの話ではない。児童の性的虐待資料は犯罪だ。より難しく、よりもやのかかった問いは、同意した成人が、これまで彼らが使ってきたあらゆる技術と同じように、これらのツールを使いたいと思ったときに何が起きるのか、ということだ。

爆弾により慣れている

アメリカがデジタルの性とデジタルの暴力をどう扱うか、その間には常に大きな隔たりがあった。

映画なら、男の頭蓋骨が吹き飛ばされる場面を見せてもR指定を取れる。乳首がチラッと見えるだけで、議会の公聴会が開かれる。その同じ論理が、設計ではなくデフォルトとして、AIの政策にも移植されている。

AIの軍事用途は、実際に倫理面での厳しい精査に直面しているが、同じような周囲に漂う気まずさはない。2018年、Google $GOOGL +3.42% の従業員たちは、Project Mavenと呼ばれるペンタゴンのコンピュータビジョン契約をめぐって反乱を起こし、同社に撤退を強いた。今年OpenAIが自社のペンタゴン契約に署名したとき、同様の騒動は起きなかった。撤退すると脅した従業員たちは諮問委員会のメンバーで、彼らが怒っていたのは「汚い話」だった。

答えの一部は構造的なものだ。AI企業は、論争を避けることが性を避けることを意味する時点で、初期のコンテンツ方針を作った。そしてそのデフォルトが固まってしまった。

もう一部は、性は本質的に危険であり、厳しく管理されなければならないという、変わらないアメリカの本能だ。一方で暴力、特に公的な暴力は、単に商売のコストでしかない。

AIコンパニオンに関する証拠はまちまちだ。研究者たちは、チャットボットとの関係には実際の治療的な価値があることを記録している。とりわけ、孤独、喪失、または障害に直面している人にとってそうだ。さらに、過激化、妄想、悲劇についても記録されている。

率直な答えは、誰もまだ、AIの親密さに長期的にさらされることで人に何が起きるのかを分かっていない、ということだ。

その間にも、ツールは遊んでいるわけではない。オハイオで同意する成人相手に生々しい会話をできないのと同じAI技術が、海外ではアメリカの軍隊によって使われている。誰も、その問題を待ってはくれない。

📬 Daily Briefに登録

グローバル経済に関する、無料で速くて楽しいブリーフィングを、毎週平日の朝にお届けします。

登録します

GROK-6.84%
XAI-2.39%
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン