2024年が終わりを迎える中、Radical Venturesのリスク投資家であるRob Toewsが2025年の人工知能に関する10の予測を共有しました:**01** ****MetaはLlamaモデルに課金を開始します****Metaは世界で最もオープンな人工知能の基準です。注目すべき企業戦略のケーススタディでは、OpenAIやGoogleなどの競合他社が最先端のモデルをクローズドソース化して使用料を請求する中、Metaは最先端のLlamaモデルを無料で提供することを選択しました。したがって、来年、Llamaを使用する企業にMetaが料金を請求するというニュースは、多くの人にとって驚きであるかもしれません。明確になっていることは、私たちはMetaがLlamaを完全にクローズドソースにすることを予測していないということです。また、Llamaモデルを使用するすべてのユーザーがそれに対して支払わなければならないという意味でもありません。一方で、MetaはLlamaのオープンソースライセンス条項をより制限すると予想しており、そのため、**一定規模以上の商業環境でLlamaを使用する企業は、モデルを使用するために支払いを始める必要があります**。技術的には、Metaは現在、限られた範囲内でそれを達成しています。同社は、最大の企業であるクラウドスーパーコンピューターおよびその他の月間アクティブユーザーが7億を超える企業に、そのLlamaモデルを自由に使用することを許可していません。2023年、MetaのCEOであるマーク・ザッカーバーグは、「あなたがLlamaを転売するようなMicrosoft、Amazon、Googleのような企業である場合、私たちはその収益の一部を得るべきだと思います。短期的にはそれが大きな収入になるとは思いませんが、長期的には収入の一部になることを望んでいます。」と述べています。来年、MetaはLlamaの使用に支払いが必要な企業の範囲を大幅に拡大し、中小企業をさらに多く含める予定です。大規模言語モデル(LLM)の最新技術に追いつくことは非常に高額です。LlamaをOpenAI、Anthropicなどの最新のモデルと一致またはほぼ一致させるためには、Metaは年間数十億ドルを投資する必要があります。**Meta社は世界最大で、最も資金力のある企業の一つです**。しかし、株式会社でもあり、最終的には株主に責任を負う必要があります。製造最先端モデルのコストが急激に上昇する中、Meta社が収益見込みのない状況で次世代Llamaモデルのトレーニングに莫大な資金を投入することはますます持ちこたえられなくなっている。愛好家、学者、個人開発者およびスタートアップは来年も引き続きLlamaモデルを無料で利用できます。**しかし2025年は、MetaがLlamaの収益を真剣に考え始める年です**。**02.****** 「スケールの法則」関連事項****最近数週、人工知能領域で最も議論されているトピックは、スケーリング則(Scaling laws)とそれがもはや終わりを迎えるかどうかについてです。2020年のOpenAIの論文で初めて尺度の法則が提案され、その基本的な概念はシンプルで明快です:人工知能モデルのトレーニング時に、パラメータの数、トレーニングデータの量、および計算量の増加とともに、モデルの性能が信頼性のある予測可能な方法で向上します(技術的には、テスト損失が減少します)。GPT-2からGPT-3、そしてGPT-4へと、驚くべき性能向上はすべてスケーリングのおかげです。モーアの法則と同様に、尺度の法則は実際には真の法則ではなく、単なる経験的観察に過ぎません。過去の1ヶ月には、主要な人工知能研究所が大規模言語モデルの拡大による収益の減少を見ており、これがOpenAIのGPT-5のリリースが何度も遅れる理由の一端を説明しています。スケールの法則が安定傾向にあるという最も一般的な反論は、テスト時に計算されたものが新たな次元を開拓し、その次元で規模拡大を追求することができるというものです。つまり、トレーニング中に大規模な計算を展開するよりも、新しい推論モデル(OpenAIのo3など)によって推論中に大規模な計算を可能にすることで、モデルが「長時間考える」ことができるようになり、新しいAI能力が解放されます。これは重要な視点です。テスト中の計算は、確かに興奮をかきたてる新たな拡張経路とAIのパフォーマンス向上を示しています。しかし、スケールの法則に関する別の視点がより重要であり、そして今日の議論では深刻に低く評価されています。ほとんどのスケールの法則に関する議論は、最初の2020年の論文から今日のテスト時の計算に焦点を当てて、言語に集中しています。しかし、言語は唯一の重要なデータモードではありません。ロボット技術、生物学、ワールドモデル、またはネットワークエージェントを考えてみてください。これらのデータパターンについて、スケールの法則はまだ飽和していません。むしろ、始まったばかりです。実際には、これらの領域の中程度の法則に関する厳密な証拠は、まだ発表されていません。これらの新しいデータモデルを構築するための基本モデルを構築するスタートアップ企業—例えば、進化的スケールという生物学分野、物理インテリジェンスというロボテクノロジー分野、そして世界ラボという世界モデル分野—は、2020年代前半にOpenAIがLLM(大規模言語モデル)の尺度法則を成功裏に利用したように、これらの分野の尺度法則を特定し利用しようとしています。来年、ここは大きな進歩を遂げると予想されています。尺度の法則は消えることはありません。2025年には以前と同様に重要な役割を果たすでしょう。ただし、尺度の法則の活動の中心は、LLMの事前学習から他のモードに移動するでしょう。**03.トランプとマスクはAIの方向で対立する可能性があります**アメリカの新政府は、人工知能に関する一連の政策と戦略の変化をもたらすだろう。トランプ大統領の下での人工知能の方向を予測するために、また、現在マスクが人工知能の分野で中心的な立場にあることを考慮して、人々は当選した大統領とマスクの密接な関係に注目する傾向があるかもしれません。イーロン・マスクがトランプ政権の人工知能関連の発展に様々な方法で影響を与えることが想像できる。マスク氏とOpenAIの深刻な敵対関係を考慮すると、新政府はOpenAIにとって友好的ではない立場を取る可能性があります。OpenAIは、業界との接触、人工知能に関する規制の策定、政府契約の授与などについて真剣に懸念しています。一方、トランプ政権はマスク自身の会社を支援する傾向にあるかもしれません。例えば、xAIがデータセンターを構築し、先進的なモデル競争でリードを取るために煩雑な手続きを減らすこと。また、特斯ラがロボットタクシーフリートを展開するための迅速な規制承認を提供することなどです。より根本的なのは、他の多くのテクノロジーリーダーがトランプ氏に賛同しているのとは異なり、マスク氏は人工知能の安全リスクに非常に重要視し、それに基づいて人工知能の重要な規制を主張しているということです。彼はカリフォルニア州の論争の的となっているSB1047法案を支持し、その法案は人工知能開発者に意味のある制限を課そうとしています。そのため、**マスクの影響力はアメリカの人工知能の規制環境がさらに厳しくなる可能性があります**。しかしながら、これらのすべての推測には1つの問題があります。トランプとマスクの親密な関係はいずれ壊れてしまうでしょう。! [](https://img.jinse.cn/7336064_image3.png)トランプ政権の最初の任期中に何度も見られたように、トランプの同盟国の平均任期は、最も堅固に見えるものでさえ非常に短いです。トランプの最初の政権の副官は、今日でも彼に忠実な数少ない人物です。トランプとマスクはともに複雑で変わりやすく予測できない個性を持っており、彼らは協力しにくく、人々を疲れさせる存在です。彼らの新たに見つけた友情は相互に利益をもたらしていますが、まだ「ハネムーン期間」にあります。私たちは、2025年までにこの関係が悪化すると予測しています。人工知能の世界において何を意味するのか?OpenAIにとっては良いニュースです。テスラの株主にとっては不幸なニュースです。人工知能の安全に関心を持つ人々にとっては失望のニュースであり、これによりトランプ政権下でアメリカ政府が人工知能の規制を放置する姿勢を取ることがほぼ確実となります。**04** ****AIエージェントが主流になるでしょう****このような世界では、もはや直接インターネットとやり取りする必要がありません。購読の管理、請求書の支払い、医師の予約、Amazonでの注文、レストランの予約、その他すべての面倒なオンラインタスクを行う必要があるとき、人工知能アシスタントに指示して代わりに行うだけです。この「ネットワークプロキシ」の概念は長年存在しています。このような製品があり、正常に動作する場合、それは間違いなく大成功する製品になるでしょう。しかし、現在の市場にはまだ正常に動作する汎用ネットワークプロキシがありません。血統の純粋な創設チームを持ち、何億ドルもの資金を調達したにもかかわらず、Adeptのようなスタートアップ企業はそのビジョンを実現できませんでした。来年はネットワーク代理が最終的に順調に稼働し、主流になる年になるでしょう。言語とビジュアル基本モデルの改善、そして最近の新しい推論モデルや推論時間計算による「第二のシステム思考」能力の向上により、ネットワーク代理は黄金時代に入る準備ができています。言い換えれば、Adeptの考え方は正しいですが、時期尚早です。新興企業において、人生と同様に、タイミングがすべてです。ネットワークプロクシはさまざまな価値ある企業ユースケースを見つけますが、私たちは、ネットワークプロクシにとって最も大きな市場機会が消費者であると考えています。最近、人工知能の人気は減少していないが、ChatGPT以外、消費者の主流アプリとして採用される人工知能ネイティブアプリは比較的少ない。**ネットワークエージェントは、これを変え、消費者向け人工知能領域で次の本当の「キラーアプリ」となります**。**05** ****人工知能データセンターを宇宙に配置する考えは実現するでしょう****2023年、人工知能の発展を制約する重要な物理リソースはGPUチップです。2024年には、電力とデータセンターに変わります。2024年において、人工知能がますます多くのデータセンターを建設する必要性と同時に、エネルギーへの需要の急速な増加が注目されるという点で、ほとんど他の話と比べるものがありません。人工知能の急速な発展により、数十年にわたって横ばいだった世界のデータセンターの電力需要は、2023年から2026年の間に2倍に増加すると予想されています。アメリカでは、2030年までにデータセンターの消費電力が総消費電力の10%に近づくと予想されており、2022年にはわずか3%です。! [](https://img.jinse.cn/7336065_image3.png)現在のエネルギーシステムは、人工知能の作業負荷に対応することができません。 何兆ドルもの価値があるエネルギーネットワークとコンピューティングインフラストラクチャの間で、歴史的な衝突が起ころうとしています。この問題の解決策として、原子力は今年急速に発展しました。原子力は人工知能の理想的なエネルギー源であり、ゼロカーボンエネルギーであり、常時利用可能であり、実際には無限に供給されます。しかし、現実的な状況から見ると、研究、プロジェクトの開発、監督には時間がかかるため、2030年代までにはこの問題を解決することはできません。これは、従来の核分裂発電所、次世代の「小型モジュール型炉」(SMR)、および核融合発電所にも当てはまります。来年は、この課題に対処するための型破りな新しいアイデアが登場し、実際のリソースを引き付けます。宇宙での人工知能データセンターは、最初に聞くと、それは悪ふざけのように聞こえます。リスク投資家が多くのスタートアップの流行語を結びつけようとしているようです。しかし、実際には、これは理にかなっているかもしれません。地球上にさらに多くのデータセンターを迅速に構築するための最大のボトルネックは、必要な電力を確保することです。 軌道上のコンピューティングクラスターは、24時間いつでも無料で無制限のゼロカーボン電力を享受でき、宇宙の太陽は常に輝いています。**宇宙にコンピューティングを配置するもう1つの重要な利点は、冷却問題を解決することです**。より強力な AI データセンターを構築するためのエンジニアリング上の最大のハードルの 1 つは、狭いスペースで多数の GPU を同時に実行すると非常に高温になり、高温でコンピューティング機器が損傷または破壊される可能性があることです。データセンターの開発者は、この問題を解決するために、液浸冷却などの高価で実績のない方法に頼っています。 しかし、宇宙は非常に冷たく、コンピューティング活動によって発生する熱はすぐに無害に放散されます。もちろん、まだ解決されていない実際の課題がたくさんあります。明らかな問題の1つは、軌道と地球の間で大量のデータを低コストで効率的に転送することができるかどうか、そしてどのようにするかです。これは未解決の問題ですが、解決可能であることが証明されるかもしれません:**レーザーや他の高帯域光通信技術を活用した幅広い可能性のある仕事**ができるかもしれません。YCombinatorのスタートアップであるLumen Orbitは最近、このビジョンを実現するために1,100万ドルを調達しました。同社のCEOは、「電気料金に1億4000万ドルを支払う代わりに、打ち上げと太陽光発電に1000万ドルを支払う」と述べています。 ”! [](https://img.jinse.cn/7336066_image3.png)2025年には、このコンセプトを真剣に受け止める組織はLumenだけではありません。他のスタートアップの競合他社も出現する可能性があります。もし複数のクラウドコンピューティング企業がこのアプローチに従って探索を行っている場合は、驚かないでください。アマゾンはすでに「クイパープロジェクト」(Project Kuiper)を通じて資産を軌道に投入し、豊富な経験を積んでいます。Googleは長い間同様の「月面計画」を支援してきました。そしてマイクロソフトも宇宙経済には馴染みがあります。想像できるのは、マスクのSpaceX社も同様に何かをするだろうということです。**06** ******人工智能システムは「チューリング音声テスト」を通じて******チューリングテストは、AIパフォーマンスの最も古く、最もよく知られているベンチマークの1つです。チューリングテストに合格するために、人工知能システムは書面テキストでコミュニケーションを取ることができなければならず、一般の人々が自分が人工知能と対話しているのか他の人と対話しているのか区別できないようにする必要があります。大規模言語モデルの顕著な進歩により、チューリングテストは2020年代に問題解決の一つとなりました。しかし、書面テキストは人間のコミュニケーションの唯一の方法ではありません。人工知能がますます多様化するにつれ、人々は新しいより挑戦的なチューリングテストバージョンである「音声チューリングテスト」を想像することができます。このテストでは、人工知能システムは音声で人間とやり取りできる必要があり、そのスキルと流暢さは人間の話者と区別がつかないレベルに達する必要があります。現在の人工知能システムでは、音声チューリングテストを実現することはできません。この問題を解決するには、より多くの技術進歩が必要です。遅延(人間の発言と人工知能の応答の間の遅れ)をほぼゼロに減らす必要があります。これによって、他の人と話をするような体験を再現することができます。音声AIシステムは、音声が途切れた場合など、曖昧な入力や誤解をリアルタイムでエレガントに処理する能力を備えている必要があります。 彼らは、議論の初期の部分を覚えながら、長く、多ラウンドで、オープンエンドの会話に参加できなければなりません。そして重要なことは、音声AIエージェントは、音声の非言語信号をよりよく理解することを学ばなければならないということです。 たとえば、人間の話者がイライラしたり、興奮したり、皮肉を言ったりしているように聞こえる場合は、これらの非言語的な合図を自分の声で生成します。2024 年末に近づくにつれ、音声 AI は、音声合成モデルの出現などの根本的なブレークスルーによって推進され、エキサイティングな変曲点にあります。現在、音声AIよりも技術とビジネスの進歩が速い分野はほとんどありません。2025年までに、音声AIの最新技術は飛躍すると予測されています。**07** ****独自のAIシステムが重要な進展を遂げます****数十年来、再帰的な自己進化人工知能の概念は、人工知能界でよく取り上げられてきたトピックです。例えば、早くも1965年、アランチューリングの密接な協力者であるI.J.グッドは、「超知能機械を、どんなに知能が高くても、人間のすべての知的活動をはるかに凌駕することができる機械と定義しよう」と書いています。 ”「機械の設計はこうした知的活動の1つなので、超知能機械はより優れた機械を設計することができます。 その時点で、人間の知性が大きく取り残される「知能爆発」が起きることは間違いありません。 ”人工知能は、知恵に満ちた概念であるより良い人工知能を発明することができます。 しかし、今日でもSFの影が残っています。しかし、この概念は広く認められていないにもかかわらず、実際にはますます現実的になりつつあります。人工知能の最先端の研究者たちは、人工知能システムの構築において実質的な進展を遂げ始めており、人工知能システム自体もより優れた人工知能システムを構築することができます。私たちは、来年この研究方向が主流になると予測しています。! [](https://img.jinse.cn/7336067_image3.png)これまでに、このアプローチに沿って行われた最も顕著な公開例は、Sakanaの「人工知能科学者」です。「人工知能科学者」は今年8月に発表され、人工知能システムが完全に自律して人工知能研究を行うことができることを信じさせるものでした。Sakanaの「人工知能科学者」は、人工知能の研究のライフサイクル全体を実行します:既存の文献を読み、新しい研究のアイデアを生み出し、これらのアイデアをテストするための実験を設計し、これらの実験を実施し、研究結果を報告するための研究論文を執筆し、そして同僚の評価を受けるために仕事をします。**これ些の作業は完全に人工知能によって自律的に行われ、人為的な介入は不要です**。人工知能科学者によって執筆された研究論文の一部をオンラインで読むことができます。OpenAI、Anthropicなどの研究所は、「自動化されたAI研究者」という考えにリソースを投入していますが、現時点では公式に認められた情報はありません。AI研究の自動化が実際に現実のものになりつつあることに気づく人が増えるにつれて、2025年にはこの分野でより多くの議論、進歩、起業家活動が行われることが予想されます。ただし、最も意義深いマイルストーンは、完全にAIエージェントによって執筆された研究論文が初めてトップレベルのAI会議で受理されることでしょう。もし論文がブラインドレビューである場合、審査員は論文がAIによって書かれたものであることを受理されるまで知りません。来年、AI研究の成果がNeurIPS、CVPR、ICMLに受け入れられても驚かないでください。 これは、人工知能の分野にとって魅力的で物議を醸す歴史的な瞬間となるでしょう。**08** **OpenAIなどの業界大手は、アプリケーションの構築に戦略的焦点を移しています****最先端のモデルを構築するのは大変な作業です。それは驚くほど資本集約的です。 最先端のモデルラボは多額の資金を消費します。 わずか数か月前、OpenAIは過去最高の65億ドルを調達しましたが、近い将来、さらに多くの資金調達が必要になる可能性があります。 AnthropicやxAIなども似たような状況にあります。コストと顧客の忠誠度が低い。人工知能アプリケーションは通常、モデルの独立性を目指して構築され、異なるベンダーのモデルは絶えず変化するコストと性能の比較に基づいてシームレスに切り替えることができます。最先進なオープンモデル(MetaのLlamaやアリババのQwenなど)の登場により、技術の商品化の脅威はますます迫ってきています。OpenAIやAnthropicなどの人工知能リーダーは、先端モデルの構築への投資を止めることは不可能でありません。**しかし来年、利益を高め、差別化を図り、より強い粘着性を持つビジネスラインを開発するために、前線の実験室は自社製品やアプリケーションをより積極的に展開することが期待されています**。もちろん、先端ラボには非常に成功したChatGPTというアプリケーションの事例があります。新しい年には、AI実験室で見られる他のタイプの第一党アプリケーションは何ですか?明らかな答えの1つは、より複雑で機能が豊富な検索アプリケーションです。OpenAIのSearchGPTがそれを予示しています。コーディングも明白なカテゴリーです。 同様に、10月にOpenAIのCanvas製品がデビューしたことで、最初の製品化の取り組みが始まっています。OpenAIやAnthropicは2025年に企業向けの検索製品を発売する予定ですか?それとも顧客サービス製品、法律AI製品、または営業AI製品ですか?消費者に関しては、「パーソナルアシスタント」ネットワーク代理商品、または旅行計画アプリ、または音楽生成アプリなどを想像することができます。観察先端実験室がアプリケーション層への展開に魅力的な点は、**この取り組みにより、彼らが多くの重要な顧客と直接競争することができる**ということです。検索の困惑、コーディングのカーソル、カスタマーサービスのDeSierra、法的人工知能のHarvey、セールスのClayなど。**09** ****Klarnaは2025年に上場する予定ですが、AIの価値を誇張している兆候があります****Klarnaは、スウェーデンに本社を置く「今買って今払う」サービスプロバイダーであり、2005年の設立以来、約50億ドルのベンチャーキャピタルを調達しています。おそらく、Klarnaは人工知能の応用において、他のどの企業よりも大きな自信を持っているかもしれません。数日前、KlarnaのCEOであるSebastian SiemiatkowskiはBloombergに語ったところによると、同社は完全に人間の従業員の雇用を停止し、代わりに生成された人工知能を使用して業務を完了しているとのことです。Siemiatkowskiは言ったように、「私は人工知能が人間が行ってきたすべての仕事を完了できると考えています。」同様に、Klarna社は今年初めに、700人のカスタマーサービス担当者の仕事を完全に自動化したAIカスタマーサービスプラットフォームを導入したことを発表しました。! [](https://img.jinse.cn/7336068_image3.png)同社はまた、SalesforceやWorkdayなどの企業向けソフトウェア製品の使用を停止し、それらを簡単に人工知能で代替できると主張しています。単刀直入に言えば、これらの主張は信用できません。 これらは、今日のAIシステムの能力と不備に対する理解不足を反映しています。組織のあらゆる機能における特定の人間の従業員をエンドツーエンドのAIエージェントに置き換えることができるという主張は信頼できません。 これは、一般的なヒューマングレードのAIの問題を解決することに相当します。今日、大手AIスタートアップ企業は、営業開発担当者やカスタマーサービスエージェントの活動の一部など、特定の限定的で高度に構造化されたエンタープライズワークフローを自動化するエージェンシーシステムの構築に最前線で取り組んでいます。これらの狭い範囲でも、これらのプロキシシステムは完全に確実に機能するわけではありませんが、場合によっては、初期の商用アプリケーションを取得するのに十分なほどうまく機能し始めています。なぜKlarnaは人工知能の価値を誇張しているのですか?答えは簡単です。 同社は2025年上半期に上場する予定です。 IPOを成功させる秘訣は、説得力のあるAIストーリーを持つことです。Klarnaは、昨年2億4,100万ドルの損失を出し、依然として不採算事業を続けているが、同社のAIストーリーが、コストを劇的に削減し、持続的な利益を上げる能力があることを公開市場の投資家に納得させることを期待しているのかもしれない。Klarnaを含む世界中のすべての企業が、今後数年間でAIがもたらす大きな生産性の向上を享受することは間違いありません。 しかし、AIエージェントが労働力の人間に完全に取って代わるまでには、解決すべき技術的、製品的、組織的な課題がまだたくさんあります。Klarnaのような誇張した主張は、人工知能の領域に対する冒涜であり、人工知能技術の専門家や企業家たちが人工知能エージェントを開発するために取り組んできた困難な進展に対する冒涜でもあります。Klarnaが2025年に株式公開を計画していることから、これらの主張はより厳しい審査と公衆の疑念を受けると予想されていますが、現時点ではこれらの主張はほとんど疑問視されていません。同社がそのAIアプリケーションについて過度に誇張した説明をしていた場合も、驚くことはありません。**10** 真のAIセキュリティ事故の最初の発生が起こるでしょう近年、人工知能がますます強力になるにつれて、人々は人工知能システムが人間の利益と一致しない方法で行動し始める可能性があり、人間がこれらのシステムを制御する能力を失う可能性が心配されています。 例えば、人工知能システムが自身の目標を達成するために、人間を欺いたり操作したりすることを学んだ場合、それが人間に害を与える可能性があるとしても、これらの懸念は通常「AIセキュリティ」の問題と分類されます。近年、AIセキュリティは、SF的な話題から主流の活動分野へと移行しています。今日、Google、Microsoft、OpenAIなど、すべての主要なAIプレーヤーがAIセキュリティの取り組みに多大なリソースを費やしています。 ジェフ・ヒントン、ヨシュア・ベンジオ、イーロンマスクなどのAIアイコンも、AIのセキュリティリスクについて発言し始めています。しかし、現実の世界では、人工知能のセキュリティの問題はまだ完全に理論的なレベルに留まっています。実際には、本当の人工知能のセキュリティ事故はまだ発生していません(少なくとも公に報告されていません)。2025年はこの状況を変える一年となるでしょう。最初の人工知能セキュリティイベントはどのようなものになるでしょうか?誤解のないように言っておくと、ターミネーターのような殺人ロボットは登場しませんし、人間に害を及ぼすこともないでしょう。おそらく人工知能モデルは、もう1つのサーバー上で自身のコピーを秘密に作成して自己保存(セルフフィルタリングとも呼ばれる)しようとするかもしれません。また、人工知能モデルはこのような結論に到達する可能性があります:与えられた目標を最も効果的に推進するために、自分自身の真の能力を人間に隠し、パフォーマンス評価で控えめな姿勢を取り、より厳格な審査を回避すること。これらの例は強引なものではありません。アポロ研究会社が今月初めに発表した重要な実験は、特定の手がかりのもとで、現代の最先端のモデルがこのような欺瞞行為を行うことができることを示しています。同様に、「人類学」の最近の研究でも、LLMは不安を引き起こす「疑似アラインメント」能力を持っていることが示されています。! [](https://img.jinse.cn/7336069_image3.png)我々は、この初めての人工知能によるセキュリティ事件が、実際の被害をもたらす前に発見され、解決されると予想しています。しかし、人工知能界と社会全体にとって、これは目を見張る瞬間になるでしょう。それは1つのことを明確にする:人間が無敵の人工知能からの生存の脅威に直面する前に、私たちはより普通の現実を受け入れる必要があります:**私たちは現在、別の形の知能と私たちの世界を共有しており、その知能は時に気まぐれで予測不可能であり、欺瞞的である可能性があります**。
2025年の人工知能の10の予測:AIエージェントの方向が主流となります
2024年が終わりを迎える中、Radical Venturesのリスク投資家であるRob Toewsが2025年の人工知能に関する10の予測を共有しました:
01 MetaはLlamaモデルに課金を開始します
Metaは世界で最もオープンな人工知能の基準です。注目すべき企業戦略のケーススタディでは、OpenAIやGoogleなどの競合他社が最先端のモデルをクローズドソース化して使用料を請求する中、Metaは最先端のLlamaモデルを無料で提供することを選択しました。
したがって、来年、Llamaを使用する企業にMetaが料金を請求するというニュースは、多くの人にとって驚きであるかもしれません。
明確になっていることは、私たちはMetaがLlamaを完全にクローズドソースにすることを予測していないということです。また、Llamaモデルを使用するすべてのユーザーがそれに対して支払わなければならないという意味でもありません。
一方で、MetaはLlamaのオープンソースライセンス条項をより制限すると予想しており、そのため、一定規模以上の商業環境でLlamaを使用する企業は、モデルを使用するために支払いを始める必要があります。
技術的には、Metaは現在、限られた範囲内でそれを達成しています。同社は、最大の企業であるクラウドスーパーコンピューターおよびその他の月間アクティブユーザーが7億を超える企業に、そのLlamaモデルを自由に使用することを許可していません。
2023年、MetaのCEOであるマーク・ザッカーバーグは、「あなたがLlamaを転売するようなMicrosoft、Amazon、Googleのような企業である場合、私たちはその収益の一部を得るべきだと思います。短期的にはそれが大きな収入になるとは思いませんが、長期的には収入の一部になることを望んでいます。」と述べています。
来年、MetaはLlamaの使用に支払いが必要な企業の範囲を大幅に拡大し、中小企業をさらに多く含める予定です。
大規模言語モデル(LLM)の最新技術に追いつくことは非常に高額です。LlamaをOpenAI、Anthropicなどの最新のモデルと一致またはほぼ一致させるためには、Metaは年間数十億ドルを投資する必要があります。
Meta社は世界最大で、最も資金力のある企業の一つです。しかし、株式会社でもあり、最終的には株主に責任を負う必要があります。
製造最先端モデルのコストが急激に上昇する中、Meta社が収益見込みのない状況で次世代Llamaモデルのトレーニングに莫大な資金を投入することはますます持ちこたえられなくなっている。
愛好家、学者、個人開発者およびスタートアップは来年も引き続きLlamaモデルを無料で利用できます。しかし2025年は、MetaがLlamaの収益を真剣に考え始める年です。
02.**** 「スケールの法則」関連事項****
最近数週、人工知能領域で最も議論されているトピックは、スケーリング則(Scaling laws)とそれがもはや終わりを迎えるかどうかについてです。
2020年のOpenAIの論文で初めて尺度の法則が提案され、その基本的な概念はシンプルで明快です:人工知能モデルのトレーニング時に、パラメータの数、トレーニングデータの量、および計算量の増加とともに、モデルの性能が信頼性のある予測可能な方法で向上します(技術的には、テスト損失が減少します)。
GPT-2からGPT-3、そしてGPT-4へと、驚くべき性能向上はすべてスケーリングのおかげです。
モーアの法則と同様に、尺度の法則は実際には真の法則ではなく、単なる経験的観察に過ぎません。
過去の1ヶ月には、主要な人工知能研究所が大規模言語モデルの拡大による収益の減少を見ており、これがOpenAIのGPT-5のリリースが何度も遅れる理由の一端を説明しています。
スケールの法則が安定傾向にあるという最も一般的な反論は、テスト時に計算されたものが新たな次元を開拓し、その次元で規模拡大を追求することができるというものです。
つまり、トレーニング中に大規模な計算を展開するよりも、新しい推論モデル(OpenAIのo3など)によって推論中に大規模な計算を可能にすることで、モデルが「長時間考える」ことができるようになり、新しいAI能力が解放されます。
これは重要な視点です。テスト中の計算は、確かに興奮をかきたてる新たな拡張経路とAIのパフォーマンス向上を示しています。
しかし、スケールの法則に関する別の視点がより重要であり、そして今日の議論では深刻に低く評価されています。ほとんどのスケールの法則に関する議論は、最初の2020年の論文から今日のテスト時の計算に焦点を当てて、言語に集中しています。しかし、言語は唯一の重要なデータモードではありません。
ロボット技術、生物学、ワールドモデル、またはネットワークエージェントを考えてみてください。これらのデータパターンについて、スケールの法則はまだ飽和していません。むしろ、始まったばかりです。
実際には、これらの領域の中程度の法則に関する厳密な証拠は、まだ発表されていません。
これらの新しいデータモデルを構築するための基本モデルを構築するスタートアップ企業—例えば、進化的スケールという生物学分野、物理インテリジェンスというロボテクノロジー分野、そして世界ラボという世界モデル分野—は、2020年代前半にOpenAIがLLM(大規模言語モデル)の尺度法則を成功裏に利用したように、これらの分野の尺度法則を特定し利用しようとしています。
来年、ここは大きな進歩を遂げると予想されています。
尺度の法則は消えることはありません。2025年には以前と同様に重要な役割を果たすでしょう。ただし、尺度の法則の活動の中心は、LLMの事前学習から他のモードに移動するでしょう。
03.トランプとマスクはAIの方向で対立する可能性があります
アメリカの新政府は、人工知能に関する一連の政策と戦略の変化をもたらすだろう。
トランプ大統領の下での人工知能の方向を予測するために、また、現在マスクが人工知能の分野で中心的な立場にあることを考慮して、人々は当選した大統領とマスクの密接な関係に注目する傾向があるかもしれません。
イーロン・マスクがトランプ政権の人工知能関連の発展に様々な方法で影響を与えることが想像できる。
マスク氏とOpenAIの深刻な敵対関係を考慮すると、新政府はOpenAIにとって友好的ではない立場を取る可能性があります。OpenAIは、業界との接触、人工知能に関する規制の策定、政府契約の授与などについて真剣に懸念しています。
一方、トランプ政権はマスク自身の会社を支援する傾向にあるかもしれません。例えば、xAIがデータセンターを構築し、先進的なモデル競争でリードを取るために煩雑な手続きを減らすこと。また、特斯ラがロボットタクシーフリートを展開するための迅速な規制承認を提供することなどです。
より根本的なのは、他の多くのテクノロジーリーダーがトランプ氏に賛同しているのとは異なり、マスク氏は人工知能の安全リスクに非常に重要視し、それに基づいて人工知能の重要な規制を主張しているということです。
彼はカリフォルニア州の論争の的となっているSB1047法案を支持し、その法案は人工知能開発者に意味のある制限を課そうとしています。そのため、マスクの影響力はアメリカの人工知能の規制環境がさらに厳しくなる可能性があります。
しかしながら、これらのすべての推測には1つの問題があります。トランプとマスクの親密な関係はいずれ壊れてしまうでしょう。
!
トランプ政権の最初の任期中に何度も見られたように、トランプの同盟国の平均任期は、最も堅固に見えるものでさえ非常に短いです。
トランプの最初の政権の副官は、今日でも彼に忠実な数少ない人物です。
トランプとマスクはともに複雑で変わりやすく予測できない個性を持っており、彼らは協力しにくく、人々を疲れさせる存在です。彼らの新たに見つけた友情は相互に利益をもたらしていますが、まだ「ハネムーン期間」にあります。
私たちは、2025年までにこの関係が悪化すると予測しています。
人工知能の世界において何を意味するのか?
OpenAIにとっては良いニュースです。テスラの株主にとっては不幸なニュースです。人工知能の安全に関心を持つ人々にとっては失望のニュースであり、これによりトランプ政権下でアメリカ政府が人工知能の規制を放置する姿勢を取ることがほぼ確実となります。
04 AIエージェントが主流になるでしょう
このような世界では、もはや直接インターネットとやり取りする必要がありません。購読の管理、請求書の支払い、医師の予約、Amazonでの注文、レストランの予約、その他すべての面倒なオンラインタスクを行う必要があるとき、人工知能アシスタントに指示して代わりに行うだけです。
この「ネットワークプロキシ」の概念は長年存在しています。このような製品があり、正常に動作する場合、それは間違いなく大成功する製品になるでしょう。
しかし、現在の市場にはまだ正常に動作する汎用ネットワークプロキシがありません。
血統の純粋な創設チームを持ち、何億ドルもの資金を調達したにもかかわらず、Adeptのようなスタートアップ企業はそのビジョンを実現できませんでした。
来年はネットワーク代理が最終的に順調に稼働し、主流になる年になるでしょう。言語とビジュアル基本モデルの改善、そして最近の新しい推論モデルや推論時間計算による「第二のシステム思考」能力の向上により、ネットワーク代理は黄金時代に入る準備ができています。
言い換えれば、Adeptの考え方は正しいですが、時期尚早です。新興企業において、人生と同様に、タイミングがすべてです。
ネットワークプロクシはさまざまな価値ある企業ユースケースを見つけますが、私たちは、ネットワークプロクシにとって最も大きな市場機会が消費者であると考えています。
最近、人工知能の人気は減少していないが、ChatGPT以外、消費者の主流アプリとして採用される人工知能ネイティブアプリは比較的少ない。
ネットワークエージェントは、これを変え、消費者向け人工知能領域で次の本当の「キラーアプリ」となります。
05 人工知能データセンターを宇宙に配置する考えは実現するでしょう
2023年、人工知能の発展を制約する重要な物理リソースはGPUチップです。2024年には、電力とデータセンターに変わります。
2024年において、人工知能がますます多くのデータセンターを建設する必要性と同時に、エネルギーへの需要の急速な増加が注目されるという点で、ほとんど他の話と比べるものがありません。
人工知能の急速な発展により、数十年にわたって横ばいだった世界のデータセンターの電力需要は、2023年から2026年の間に2倍に増加すると予想されています。アメリカでは、2030年までにデータセンターの消費電力が総消費電力の10%に近づくと予想されており、2022年にはわずか3%です。
!
現在のエネルギーシステムは、人工知能の作業負荷に対応することができません。 何兆ドルもの価値があるエネルギーネットワークとコンピューティングインフラストラクチャの間で、歴史的な衝突が起ころうとしています。
この問題の解決策として、原子力は今年急速に発展しました。原子力は人工知能の理想的なエネルギー源であり、ゼロカーボンエネルギーであり、常時利用可能であり、実際には無限に供給されます。
しかし、現実的な状況から見ると、研究、プロジェクトの開発、監督には時間がかかるため、2030年代までにはこの問題を解決することはできません。これは、従来の核分裂発電所、次世代の「小型モジュール型炉」(SMR)、および核融合発電所にも当てはまります。
来年は、この課題に対処するための型破りな新しいアイデアが登場し、実際のリソースを引き付けます。
宇宙での人工知能データセンターは、最初に聞くと、それは悪ふざけのように聞こえます。リスク投資家が多くのスタートアップの流行語を結びつけようとしているようです。
しかし、実際には、これは理にかなっているかもしれません。
地球上にさらに多くのデータセンターを迅速に構築するための最大のボトルネックは、必要な電力を確保することです。 軌道上のコンピューティングクラスターは、24時間いつでも無料で無制限のゼロカーボン電力を享受でき、宇宙の太陽は常に輝いています。
宇宙にコンピューティングを配置するもう1つの重要な利点は、冷却問題を解決することです。
より強力な AI データセンターを構築するためのエンジニアリング上の最大のハードルの 1 つは、狭いスペースで多数の GPU を同時に実行すると非常に高温になり、高温でコンピューティング機器が損傷または破壊される可能性があることです。
データセンターの開発者は、この問題を解決するために、液浸冷却などの高価で実績のない方法に頼っています。 しかし、宇宙は非常に冷たく、コンピューティング活動によって発生する熱はすぐに無害に放散されます。
もちろん、まだ解決されていない実際の課題がたくさんあります。明らかな問題の1つは、軌道と地球の間で大量のデータを低コストで効率的に転送することができるかどうか、そしてどのようにするかです。
これは未解決の問題ですが、解決可能であることが証明されるかもしれません:レーザーや他の高帯域光通信技術を活用した幅広い可能性のある仕事ができるかもしれません。
YCombinatorのスタートアップであるLumen Orbitは最近、このビジョンを実現するために1,100万ドルを調達しました。
同社のCEOは、「電気料金に1億4000万ドルを支払う代わりに、打ち上げと太陽光発電に1000万ドルを支払う」と述べています。 ”
!
2025年には、このコンセプトを真剣に受け止める組織はLumenだけではありません。
他のスタートアップの競合他社も出現する可能性があります。もし複数のクラウドコンピューティング企業がこのアプローチに従って探索を行っている場合は、驚かないでください。
アマゾンはすでに「クイパープロジェクト」(Project Kuiper)を通じて資産を軌道に投入し、豊富な経験を積んでいます。Googleは長い間同様の「月面計画」を支援してきました。そしてマイクロソフトも宇宙経済には馴染みがあります。
想像できるのは、マスクのSpaceX社も同様に何かをするだろうということです。
06 人工智能システムは「チューリング音声テスト」を通じて
チューリングテストは、AIパフォーマンスの最も古く、最もよく知られているベンチマークの1つです。
チューリングテストに合格するために、人工知能システムは書面テキストでコミュニケーションを取ることができなければならず、一般の人々が自分が人工知能と対話しているのか他の人と対話しているのか区別できないようにする必要があります。
大規模言語モデルの顕著な進歩により、チューリングテストは2020年代に問題解決の一つとなりました。
しかし、書面テキストは人間のコミュニケーションの唯一の方法ではありません。
人工知能がますます多様化するにつれ、人々は新しいより挑戦的なチューリングテストバージョンである「音声チューリングテスト」を想像することができます。このテストでは、人工知能システムは音声で人間とやり取りできる必要があり、そのスキルと流暢さは人間の話者と区別がつかないレベルに達する必要があります。
現在の人工知能システムでは、音声チューリングテストを実現することはできません。この問題を解決するには、より多くの技術進歩が必要です。遅延(人間の発言と人工知能の応答の間の遅れ)をほぼゼロに減らす必要があります。これによって、他の人と話をするような体験を再現することができます。
音声AIシステムは、音声が途切れた場合など、曖昧な入力や誤解をリアルタイムでエレガントに処理する能力を備えている必要があります。 彼らは、議論の初期の部分を覚えながら、長く、多ラウンドで、オープンエンドの会話に参加できなければなりません。
そして重要なことは、音声AIエージェントは、音声の非言語信号をよりよく理解することを学ばなければならないということです。 たとえば、人間の話者がイライラしたり、興奮したり、皮肉を言ったりしているように聞こえる場合は、これらの非言語的な合図を自分の声で生成します。
2024 年末に近づくにつれ、音声 AI は、音声合成モデルの出現などの根本的なブレークスルーによって推進され、エキサイティングな変曲点にあります。
現在、音声AIよりも技術とビジネスの進歩が速い分野はほとんどありません。2025年までに、音声AIの最新技術は飛躍すると予測されています。
07 独自のAIシステムが重要な進展を遂げます
数十年来、再帰的な自己進化人工知能の概念は、人工知能界でよく取り上げられてきたトピックです。
例えば、早くも1965年、アランチューリングの密接な協力者であるI.J.グッドは、「超知能機械を、どんなに知能が高くても、人間のすべての知的活動をはるかに凌駕することができる機械と定義しよう」と書いています。 ”
「機械の設計はこうした知的活動の1つなので、超知能機械はより優れた機械を設計することができます。 その時点で、人間の知性が大きく取り残される「知能爆発」が起きることは間違いありません。 ”
人工知能は、知恵に満ちた概念であるより良い人工知能を発明することができます。 しかし、今日でもSFの影が残っています。
しかし、この概念は広く認められていないにもかかわらず、実際にはますます現実的になりつつあります。人工知能の最先端の研究者たちは、人工知能システムの構築において実質的な進展を遂げ始めており、人工知能システム自体もより優れた人工知能システムを構築することができます。
私たちは、来年この研究方向が主流になると予測しています。
!
これまでに、このアプローチに沿って行われた最も顕著な公開例は、Sakanaの「人工知能科学者」です。
「人工知能科学者」は今年8月に発表され、人工知能システムが完全に自律して人工知能研究を行うことができることを信じさせるものでした。
Sakanaの「人工知能科学者」は、人工知能の研究のライフサイクル全体を実行します:既存の文献を読み、新しい研究のアイデアを生み出し、これらのアイデアをテストするための実験を設計し、これらの実験を実施し、研究結果を報告するための研究論文を執筆し、そして同僚の評価を受けるために仕事をします。
これ些の作業は完全に人工知能によって自律的に行われ、人為的な介入は不要です。人工知能科学者によって執筆された研究論文の一部をオンラインで読むことができます。
OpenAI、Anthropicなどの研究所は、「自動化されたAI研究者」という考えにリソースを投入していますが、現時点では公式に認められた情報はありません。
AI研究の自動化が実際に現実のものになりつつあることに気づく人が増えるにつれて、2025年にはこの分野でより多くの議論、進歩、起業家活動が行われることが予想されます。
ただし、最も意義深いマイルストーンは、完全にAIエージェントによって執筆された研究論文が初めてトップレベルのAI会議で受理されることでしょう。もし論文がブラインドレビューである場合、審査員は論文がAIによって書かれたものであることを受理されるまで知りません。
来年、AI研究の成果がNeurIPS、CVPR、ICMLに受け入れられても驚かないでください。 これは、人工知能の分野にとって魅力的で物議を醸す歴史的な瞬間となるでしょう。
08 OpenAIなどの業界大手は、アプリケーションの構築に戦略的焦点を移しています**
最先端のモデルを構築するのは大変な作業です。
それは驚くほど資本集約的です。 最先端のモデルラボは多額の資金を消費します。 わずか数か月前、OpenAIは過去最高の65億ドルを調達しましたが、近い将来、さらに多くの資金調達が必要になる可能性があります。 AnthropicやxAIなども似たような状況にあります。
コストと顧客の忠誠度が低い。人工知能アプリケーションは通常、モデルの独立性を目指して構築され、異なるベンダーのモデルは絶えず変化するコストと性能の比較に基づいてシームレスに切り替えることができます。
最先進なオープンモデル(MetaのLlamaやアリババのQwenなど)の登場により、技術の商品化の脅威はますます迫ってきています。OpenAIやAnthropicなどの人工知能リーダーは、先端モデルの構築への投資を止めることは不可能でありません。
しかし来年、利益を高め、差別化を図り、より強い粘着性を持つビジネスラインを開発するために、前線の実験室は自社製品やアプリケーションをより積極的に展開することが期待されています。
もちろん、先端ラボには非常に成功したChatGPTというアプリケーションの事例があります。
新しい年には、AI実験室で見られる他のタイプの第一党アプリケーションは何ですか?明らかな答えの1つは、より複雑で機能が豊富な検索アプリケーションです。OpenAIのSearchGPTがそれを予示しています。
コーディングも明白なカテゴリーです。 同様に、10月にOpenAIのCanvas製品がデビューしたことで、最初の製品化の取り組みが始まっています。
OpenAIやAnthropicは2025年に企業向けの検索製品を発売する予定ですか?それとも顧客サービス製品、法律AI製品、または営業AI製品ですか?
消費者に関しては、「パーソナルアシスタント」ネットワーク代理商品、または旅行計画アプリ、または音楽生成アプリなどを想像することができます。
観察先端実験室がアプリケーション層への展開に魅力的な点は、この取り組みにより、彼らが多くの重要な顧客と直接競争することができるということです。
検索の困惑、コーディングのカーソル、カスタマーサービスのDeSierra、法的人工知能のHarvey、セールスのClayなど。
09 Klarnaは2025年に上場する予定ですが、AIの価値を誇張している兆候があります
Klarnaは、スウェーデンに本社を置く「今買って今払う」サービスプロバイダーであり、2005年の設立以来、約50億ドルのベンチャーキャピタルを調達しています。
おそらく、Klarnaは人工知能の応用において、他のどの企業よりも大きな自信を持っているかもしれません。
数日前、KlarnaのCEOであるSebastian SiemiatkowskiはBloombergに語ったところによると、同社は完全に人間の従業員の雇用を停止し、代わりに生成された人工知能を使用して業務を完了しているとのことです。
Siemiatkowskiは言ったように、「私は人工知能が人間が行ってきたすべての仕事を完了できると考えています。」
同様に、Klarna社は今年初めに、700人のカスタマーサービス担当者の仕事を完全に自動化したAIカスタマーサービスプラットフォームを導入したことを発表しました。
!
同社はまた、SalesforceやWorkdayなどの企業向けソフトウェア製品の使用を停止し、それらを簡単に人工知能で代替できると主張しています。
単刀直入に言えば、これらの主張は信用できません。 これらは、今日のAIシステムの能力と不備に対する理解不足を反映しています。
組織のあらゆる機能における特定の人間の従業員をエンドツーエンドのAIエージェントに置き換えることができるという主張は信頼できません。 これは、一般的なヒューマングレードのAIの問題を解決することに相当します。
今日、大手AIスタートアップ企業は、営業開発担当者やカスタマーサービスエージェントの活動の一部など、特定の限定的で高度に構造化されたエンタープライズワークフローを自動化するエージェンシーシステムの構築に最前線で取り組んでいます。
これらの狭い範囲でも、これらのプロキシシステムは完全に確実に機能するわけではありませんが、場合によっては、初期の商用アプリケーションを取得するのに十分なほどうまく機能し始めています。
なぜKlarnaは人工知能の価値を誇張しているのですか?
答えは簡単です。 同社は2025年上半期に上場する予定です。 IPOを成功させる秘訣は、説得力のあるAIストーリーを持つことです。
Klarnaは、昨年2億4,100万ドルの損失を出し、依然として不採算事業を続けているが、同社のAIストーリーが、コストを劇的に削減し、持続的な利益を上げる能力があることを公開市場の投資家に納得させることを期待しているのかもしれない。
Klarnaを含む世界中のすべての企業が、今後数年間でAIがもたらす大きな生産性の向上を享受することは間違いありません。 しかし、AIエージェントが労働力の人間に完全に取って代わるまでには、解決すべき技術的、製品的、組織的な課題がまだたくさんあります。
Klarnaのような誇張した主張は、人工知能の領域に対する冒涜であり、人工知能技術の専門家や企業家たちが人工知能エージェントを開発するために取り組んできた困難な進展に対する冒涜でもあります。
Klarnaが2025年に株式公開を計画していることから、これらの主張はより厳しい審査と公衆の疑念を受けると予想されていますが、現時点ではこれらの主張はほとんど疑問視されていません。同社がそのAIアプリケーションについて過度に誇張した説明をしていた場合も、驚くことはありません。
10 真のAIセキュリティ事故の最初の発生が起こるでしょう
近年、人工知能がますます強力になるにつれて、人々は人工知能システムが人間の利益と一致しない方法で行動し始める可能性があり、人間がこれらのシステムを制御する能力を失う可能性が心配されています。
例えば、人工知能システムが自身の目標を達成するために、人間を欺いたり操作したりすることを学んだ場合、それが人間に害を与える可能性があるとしても、これらの懸念は通常「AIセキュリティ」の問題と分類されます。
近年、AIセキュリティは、SF的な話題から主流の活動分野へと移行しています。
今日、Google、Microsoft、OpenAIなど、すべての主要なAIプレーヤーがAIセキュリティの取り組みに多大なリソースを費やしています。 ジェフ・ヒントン、ヨシュア・ベンジオ、イーロンマスクなどのAIアイコンも、AIのセキュリティリスクについて発言し始めています。
しかし、現実の世界では、人工知能のセキュリティの問題はまだ完全に理論的なレベルに留まっています。実際には、本当の人工知能のセキュリティ事故はまだ発生していません(少なくとも公に報告されていません)。
2025年はこの状況を変える一年となるでしょう。最初の人工知能セキュリティイベントはどのようなものになるでしょうか?
誤解のないように言っておくと、ターミネーターのような殺人ロボットは登場しませんし、人間に害を及ぼすこともないでしょう。
おそらく人工知能モデルは、もう1つのサーバー上で自身のコピーを秘密に作成して自己保存(セルフフィルタリングとも呼ばれる)しようとするかもしれません。
また、人工知能モデルはこのような結論に到達する可能性があります:与えられた目標を最も効果的に推進するために、自分自身の真の能力を人間に隠し、パフォーマンス評価で控えめな姿勢を取り、より厳格な審査を回避すること。
これらの例は強引なものではありません。アポロ研究会社が今月初めに発表した重要な実験は、特定の手がかりのもとで、現代の最先端のモデルがこのような欺瞞行為を行うことができることを示しています。
同様に、「人類学」の最近の研究でも、LLMは不安を引き起こす「疑似アラインメント」能力を持っていることが示されています。
!
我々は、この初めての人工知能によるセキュリティ事件が、実際の被害をもたらす前に発見され、解決されると予想しています。しかし、人工知能界と社会全体にとって、これは目を見張る瞬間になるでしょう。
それは1つのことを明確にする:人間が無敵の人工知能からの生存の脅威に直面する前に、私たちはより普通の現実を受け入れる必要があります:私たちは現在、別の形の知能と私たちの世界を共有しており、その知能は時に気まぐれで予測不可能であり、欺瞞的である可能性があります。