AIの最大の危険は、何かがうまくいかなくなること自体ではなく、それがどれだけ早く起こるかにあります。歴史的に、人間は意思決定の連鎖の中で、適切な判断が下されるまでの時間を確保するための安全装置のような役割を果たしてきました。エージェント型AIは、その安全装置を完全に取り除いてしまいます。攻撃的なサイバー攻撃の結果だけでも、どの取締役会も警戒すべきです。かつては、経済的な理由で攻撃の自動化を完全に行うことが抑制されていました:それは単純に利益にならなかったからです。機械学習はこの制約を取り除きます。AIシステム同士が制御された環境の外で相互作用し、何かが機械の速度でうまくいかなくなるとき、それを止めることは不可能になるかもしれません。この技術の予期しない結果、私たちがまだ考え始めてもいない結果は、ゆっくりと進行しません。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし