最近1年間に、私たちがすでに人工汎用知能(AGI)を達成したという声明がますます大きな声で叫ばれるのを耳にします。もちろん、Natureの最新記事は火に油を注ぎました。しかし、そこには多くの人が見落としている根本的な問題があります。



それは何かというと、人々はまったく異なる2つのものを混同しているということです。一方には、テストで印象的な結果を示し、多様なタスクをこなす言語モデルがあります。もう一方は、決して本物の汎用知能を創り出したわけではないということです。これは、ますます複雑になるパターン認識と知能そのものを混同しているのに過ぎません。

歴史的なAGIの定義を見ると、そこでは常に別の側面が強調されてきました。さまざまな文脈での信頼性、新規性に直面したときの一般化能力、柔軟性です。単に人工的な条件下で高得点を取ることではありません。

興味深いのは、最近の研究が示していることです。テストの課題を見事に解決するシステムは、条件のわずかな変化に対してしばしば崩れてしまうということです。例えば医療モデルは、重要なデータが不足していても正しい答えを出しますが、分布のわずかなシフトには不安定になります。これは知能ではなく、特定のシナリオに対する訓練に過ぎません。

経済的な観点から見ると、さらに顕著です。最先端のシステムでさえ、実際の作業のごく一部のタスクを信頼性高くこなせるだけであり、高いテストスコアを持ちながらも、実務では十分な効果を発揮していません。最近のデータは、多くの企業がAI導入による明確なリターンをまだ見ていないことを示しています。これでは、汎用知能とは言えません。

もう一つ見落とされがちなポイントがあります。言語モデルと人間が同じ答えを出す場合でも、それは同じ推論をしていることを意味しません。私は、曖昧な状況で自信を持って結論を出すモデルの例を見たことがありますが、その一方で、専門家の人間は情報不足のために判断を控えることもあります。表面的な一致は、推論過程の深い違いを隠しています。

現在のシステムは依然として脆弱です。クエリの表現に依存し、安定した目標を持たず、長期的な推論も信頼できません。モデルが未解決の数学的問題を解いたという話も、実際には既存の方法の組み合わせや探索に過ぎず、新しい戦略の創出ではありません。

問題は単なる用語の問題ではありません。これらのシステムを科学や政府の意思決定プロセスに導入し始めると、その能力を過大評価し、信頼と責任の配分に深刻な誤りを招く可能性があります。したがって、高度な統計的近似と汎用知能を混同することは、概念的な誤りであるだけでなく、実践的なリスクも伴います。

私たちが持つモデルは強力なツールですが、あくまでツールであり、真の柔軟な能力を持つエージェントではありません。この違いは非常に重要です。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン