前 Meta 新聞主管調查:幾乎所有 AI 模型政治左傾,Gemini 曾援引中共官媒

前 Meta 新聞責任者 Campbell Brown が Forum AI を設立し、17か月かけて主流AIモデルの情報品質を体系的に評価し、Geminiが中国に関係のない報道を扱う際に中共公式サイトの情報を引用していたこと、そしてほぼすべてのテストモデルに左派的な政治偏向が存在することを発見した。
(前提:AIは133年のプリンストン大学の伝統を破壊する: 「不正行為」が次第に常識になるとき)
(補足:97,895件の地下フォーラムの対話が教える:ハッカーコミュニティも実はAIを嫌っている)

この記事の目次

トグル

  • 誰も測定していないあの問題
  • 流暢な誤りは沈黙よりも発見が難しい
  • 規制が倒し、道徳的自覚ではない

Brownは記者出身で、CNNの司会者を務めた後、Metaのニュース責任者に転じ、Facebookの世界30億ユーザーに対してニュースをどう提示するかの方針を直接管理していた。

この役職により、「プラットフォームが情報の流通をどのように形成しているか」の全貌を間近で見てきた。彼女は17か月前にMetaを離れ、ニューヨークでForum AIを創立し、一般的にファウンデーションモデル企業が省略しがちなこと、すなわちAIが出す情報の正確さ、公正さ、多様な視点を体系的に評価することに取り組んでいる。

誰も測定していないあの問題

Forum AIの中核製品は「地政学的事件基準フレームワーク」である。

その運用方法は:Forum AIは、異なる政治的スペクトルと専門背景を持つトップコンサルタントのグループを招き、Niall Ferguson、Fareed Zakaria、元アメリカ国務長官Tony Blinken、元下院少数党リーダーKevin McCarthy、元国家安全保障副顧問Anne Neuberger…などが、同じ複雑な地政学的事件について、主流AIモデルの回答を一つ一つ評価・採点する。

現在、Forum AIは人間の専門家と約90%の合意閾値に達しており、Forum AIの評価結果は弁護可能な基準を持ち、人の意見だけにとどまらない。

Brownが発見した問題は三層に分かれ、それぞれの層は前の層よりも技術的に修復が難しい。

第一層は情報源選択のロジックの穴。 Geminiは中国に関係のない報道を扱う際に、中共公式サイトの内容を引用していた。これは一般的な事実誤認ではなく、モデルの情報源選択のフィルタリングロジックの問題:AIは「これはテキスト、これはリンク」と判断するだけで、「この情報源の立場は何か、信頼性はどうか、明確な政治的目的があるか」までは判断しない。

情報源自体の政治性は、AIの出力過程では見えない。

**第二層は構造的な政治偏向。**Brownがテストしたほぼすべての主流モデルは左派的な政治偏向を示した。これは陰謀論ではなく、訓練用コーパスの自然な結果だ。AIはどのテキストから学ぶかによって、その語調や立場の枠組みを模倣しやすい。

英語のインターネット上の主流コンテンツ—メディア報道、学術論文、ソーシャルメディア投稿—は特定の政治的傾向を帯びており、その訓練されたモデルもこの偏向を継承し、それに気づかない。

さらに厄介なのは、この偏向はバグのように修正できるものではなく、モデルの出力ロジックに埋め込まれている点だ。

第三層は文脈と多視点の欠如。 Brownは、現行モデルは「背景の文脈、多視点、議論の透明性」が不足していると指摘する。AIが出す回答は陳述文であり、「A派はこれをこう見ている、B派はあれをこう見ている、その根本的な違いは…」という構造ではない。

答えは提供されるが、その答えがどの角度から導き出されたものかは示されない。

流暢な誤りは沈黙よりも発見が難しい

Brownは構造的な盲点を指摘する:ファウンデーションモデル企業は、モデルの評価やランキングにおいて、数学、コーディング、論理推論能力を優先し、情報の正確さや政治的多様性はほとんど基準リストに含めていない。

理由は簡単だ。コードには正誤があり、テストを行えばわかる。数学の問題には標準解があり、正確率も計算できる。しかし、「地政学的ニュースの正確さと公正さをどう判断するか」は誰が決めるのか?異なる立場の人々の合意をどう形成するのか?この問題にはエンジニアの解決策は存在しない。

エンジニア主導の基準テストに基づき、市場ポジションを決める製品開発プロセスでは、この点は体系的に省かれている。結果として、情報の正確さはAIの能力評価体系の中でほとんど見えない指標となる。

この省略の代償は、具体的なケースからも見て取れる。ニューヨーク市は昨年、AI採用システムのコンプライアンス監査を行った。目的は、雇用者が使うAIスクリーニングツールが現行の反差別法に違反していないかを確認することだった。監査結果によると、違反と判断されたケースは半数以上に及ばなかった。

この数字の問題は、「違反率が低い」ことではなく、むしろそれが示すのは:監査に使われたAIツールの正確性自体が十分でなく、問題を見抜けなかった可能性が高い、ということだ。

これがBrownの論点の核心だ:AIの問題は、誤った事実を出すだけでなく、信頼を持って誤った事実を受け入れさせてしまうことにある。
人は自分が知らないことを知ることができるが、少なくとも調べる余地はある。しかし、AIが流暢で自信に満ちた、ためらいのない口調で誤った答えを出すと、多くの利用者は疑う理由を持たない。

流暢な誤りは沈黙よりも発見が難しく、修正も困難だ。

規制が倒し、道徳的自覚ではない

Brownの判断は明快だ:変化を促すのは道徳的圧力や世論ではなく、企業のコンプライアンスリスクによる商業的圧力だ。

Brownの論点の背後には現実主義的な土台がある:AI産業の既存のインセンティブ構造の下では、誰もこの問題を積極的に解決する十分な理由を持たない。代償が無視できないレベルに達するまで待つしかないのだ。信用審査、保険の引き受け、採用のスクリーニングなどの場面で、AIの意思決定は現行法規に縛られている。

もしAIの出力が差別的または不正確な結果をもたらした場合、AIを使う企業は法的責任を負う。この圧力は最終的にモデルの供給者に伝わり、監査可能で検証可能、かつ正確性が保証された出力を提供することを求める。これは彼らが道徳的に正しいと感じているからではなく、企業の契約にこの要求が盛り込まれ始めているからだ。

Lerer Hippeauは昨年、Forum AIに300万ドルのシードラウンドをリード投資した。この数字はAI分野では小さな額だが、「AI評価」がビジネスになるという判断の表れであり、その需要は今後より速く拡大する可能性がある。

このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン留め