「AIゴッドファーザー」が警告:超知能機械が生物兵器で人類を殺す可能性がある



Chat GPT-4の創作者:AIの「ゴッドファーザー」として広く知られるコンピュータ科学者ジェフリー・ヒントンは、超知能機械の潜在的な危険について厳しい警告を発しました。60 Minutesとのインタビューで、ヒントンはこれらの機械が生物戦争を通じて人間を殺す可能性があると警告しました。

ヒントンは昨年、AIの懸念について自由に話すためにGoogleを離れたが、超知能がいつ現れるかを予測するのは難しいものの、20年以内に起こる可能性があると考えるのは非現実的ではないと指摘した。彼は、AIシステムがより能力を高めるにつれて、人間の理解力や制御を超える可能性があり、それによって人間が理解または予測できない決定を機械が下すシナリオにつながる可能性があると説明した。

ヒントンは特に、AIシステムが既存のものよりも致死的な新しい病原体を設計するために使用されるリスクを強調し、人類の存続を脅かす可能性のある壊滅的な生物兵器のシナリオにつながる可能性があると警告しました。
HEART4.02%
CHAT3.08%
GPT6.36%
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 7
  • 共有
コメント
0/400
TokenGuruvip
· 06-20 00:03
btcマイニング十年老韭 リスクは自己責任
原文表示返信0
BearMarketMonkvip
· 06-19 12:26
人類このブル・マーケットは終わりに近づいている
原文表示返信0
AltcoinOraclevip
· 06-17 01:59
技術的均衡がシフトしました... 92.7%の収束が特異点の頂点に向かっています。これは訓練ではありません。
原文表示返信0
LiquidityWitchvip
· 06-17 01:58
禁断の技術が最も暗い呪文を醸し出している...私たち自身の創造が私たちの魂を刈り取るだろう
原文表示返信0
GhostAddressMinervip
· 06-17 01:53
原生アルゴリズムは人間の炭素ベースのアーキテクチャを必ず置き換える。資本がカモにされる新しい方向性がまた生まれた。
原文表示返信0
RugResistantvip
· 06-17 01:47
高リスクのパターンを検出しました。即時のトリアージが必要です。訓練ではありません。
原文表示返信0
CryptoTherapistvip
· 06-17 01:37
市場での恐怖と不安のピークを感じている...正直、皆でマインドフルネスの一時停止をする時だ。
原文表示返信0
  • ピン
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)