ここ数年、モデル業界でよく知られた道筋は、より大きなモデル規模です。浙江大学チームは別の方向を選び、「bigger is better」から「structured is smarter」へと舵を切りました。規模の拡張は確かに有用ですが、主に馴染みのあるタスクでの性能を高めるものです。人間のような抽象理解や転移能力はAIにとっても同様に重要であり、将来的にAIの思考構造をより人間の脳に近づける必要があります。この方向の価値は、それが業界の注目を単なる規模の拡張から、認知構造そのものへと改めて引き戻す点にあります。
浙江大学の研究チームが新たな道筋を提案:人間の脳が世界を理解する方法をAIに教える
大規模モデルは常に大きくなっており、主流の見解では、モデルのパラメータ数が多いほど、人間の思考の方式により近づくとされています。しかし、浙江大学のチームは4月1日にNature Communications上で発表した論文で、別の見方を提示しました(原文リンク:https://www.nature.com/articles/s41467-026-71267-5)。彼らは、モデル(主にSimCLR、CLIP、DINOv2)の規模が大きくなると、特定の事物を識別する能力は確かに向上し続ける一方で、抽象概念を理解する能力は向上どころか低下さえすることを見出しました。パラメータが 2206 万から 3.0437 億に増えると、具体概念タスクは 74.94% から 85.87% に上昇し、抽象概念タスクは 54.37% から 52.82% に低下しました。
人間とモデルの思考の違い
人間の脳が概念を処理するときは、まず分類関係の一連の仕組みを形成します。白鳥とフクロウは見た目が違っていても、人はそれらを「鳥」という種類に入れてしまいます。さらに上では、鳥と馬も「動物」という層にまとめ続けられます。人は新しいものを見ると、しばしばまず、それまでに見た何かとどこが似ていて、おおよそどの種類に属するのかを考えます。人は新しい概念を学び続け、それまでの経験を整理し、この関係性を使って新しい事物を識別し、新しい状況に適応します。
モデルも分類しますが、形成の仕方は異なります。モデルは主に、大規模データの中で繰り返し現れる形式に依存しています。具体的な対象が多く出現するほど、モデルはそれを認識しやすくなります。より大きなカテゴリの段階になると、モデルはかなり苦しくなります。複数の対象の間にある共通点を捉え、それらの共通点を同じクラスにまとめ上げる必要があるためです。既存のモデルには、この点で明確な弱点があります。パラメータをさらに増やすと、具体概念タスクは向上しますが、抽象概念タスクは場合によっては低下します。
人間の脳とモデルの共通点は、どちらも内部に分類関係の一連の仕組みが形成されることです。ただし、両者の重点は異なります。人間の脳の高次視覚領域は、生物と非生物といった大きな区分を自然に分けることができます。一方、モデルは具体的な対象を分けることはできるものの、このようなより大きな分類を安定して形成するのは難しいのです。この違いにより、人間の脳は新しい対象に対しても過去の経験を使いやすくなり、そのため未見のものに直面したときに素早く分類できます。モデルのほうは既存の知識により依存するため、新しい対象に出会うと表面的な特徴でとどまりやすくなります。論文で提案された方法は、この特徴を中心に展開されており、脳信号を用いてモデル内部の構造を制約し、それを人間の脳の分類方式により近づけようとするものです。
浙江大学チームの解決策
チームが提示した解決策も独特で、パラメータをさらに積み増すのではなく、少量の脳信号で監督するというものです。ここでいう脳信号は、人が画像を見るときの脳活動記録に由来します。論文の原文では「human conceptual structures transfer 给 DNNs」と書かれています。つまり、人間の脳がどのように分類し、どうやって要約し、どのように近い概念をひとまとめにしているのかを、できるだけモデルに教えるという意味です。
チームは、150の既知の学習カテゴリと50の未見のテストカテゴリを用いて実験しました。その結果は、学習が進むにつれて、モデルと脳の表象の距離が継続的に縮まることを示しました。この変化は2つのカテゴリの両方で同時に起きており、これはモデルが単一のサンプルを学習したのではなく、まさに人間の脳に近い概念の整理の仕方を学び始めたことを意味しています。
この学習を経た後、モデルはサンプルが少ないときの学習能力がより強くなり、新しい状況に対してもより良い表現を示しました。ごくわずかな例しか与えられない一方で、生物と非生物といった抽象概念を区別することが求められるタスクにおいて、モデルは平均で 20.5% 向上し、パラメータ量がはるかに多い対照モデルをも上回りました。チームはさらに31組の専用テストも行い、複数のモデルでいずれも約1割に近い改善が見られました。
ここ数年、モデル業界でよく知られた道筋は、より大きなモデル規模です。浙江大学チームは別の方向を選び、「bigger is better」から「structured is smarter」へと舵を切りました。規模の拡張は確かに有用ですが、主に馴染みのあるタスクでの性能を高めるものです。人間のような抽象理解や転移能力はAIにとっても同様に重要であり、将来的にAIの思考構造をより人間の脳に近づける必要があります。この方向の価値は、それが業界の注目を単なる規模の拡張から、認知構造そのものへと改めて引き戻す点にあります。
Neosoulと未来
これにより、より大きな可能性が見えてきます。AIの進化は、必ずしもモデルの学習段階でのみ起こるとは限りません。モデル学習は、AIがどのように概念を組織化し、どのようにより質の高い判断構造を形成するかを決められます。さらに現実世界に入った後、AIのもう一段の進化がようやく始まります。AI agent の判断はどのように記録され、どうやって検証され、現実の相互競争の中でどのように成長し進化していくのか――それは人間のように、自ら学び、自ら進化していくことと同じです。これこそがNeosoulが今行っていることです。Neosoulは単にAI agentに答えを出させるだけではなく、AI agentを「継続的な予測、継続的な検証、継続的な精算、継続的なふるい分け」のシステムに投入し、予測と結果の間で自分自身を最適化し続け、より良い構造は保持され、より劣った構造は淘汰されるようにします。浙江大学チームとNeosoulが共同で示しているのは、実は同じ目標です。AIが単に問題を解くことができるだけでなく、総合的な思考能力を備え、絶えず進化していくことです。