OpenAIとペンタゴンの間で興味深い出来事が起こった。


サム・アルトマン、同社のCEOは、突如として取引がかなり機会主義的でいい加減に見えたと認めた。
正直なところ、大手企業のリーダーが自分の決定の欠点をこれほど率直に認めるのはめったにない。

要するに、問題はOpenAIのAI技術が内部監視やNSAのような諜報機関によって利用され得ることだった。
これはコミュニティ内に批判と懸念の波を引き起こしたことは明らかだ。
契約条件の欠陥は、最初に思ったよりも深刻だった。

OpenAIは何をしたのか?
技術の不正使用を防ぐために、新たな条項を契約に追加した。
本質的には、国家機関が監視のためにAIを利用できるような欠点を塞ぐ試みだ。

これはビッグテックと政府の関係における興味深い転換点だ。
同社は倫理的な問題に直面し、責任を取る決断をした。
ただし、もちろん疑問も残る:なぜ最初からこれらの欠点を想定しなかったのか?
いずれにせよ、政府契約における責任あるAI利用への一歩は必要なことだ。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン