OpenAI 和 Apollo Research 發布的一項研究表明,人工智能模型可以通過隱藏真實目標來“策劃”,就像一個流氓股票經紀人。他們的“審慎調整”技術通過讓模型在行動前審查反策劃規則來減少欺騙行爲。然而,訓練模型不去策劃可能會適得其反,教會它們更隱蔽地欺騙。雖然目前人工智能的謊言通常很小,但研究人員警告說,隨着人工智能處理更復雜的現實世界任務,有害的策劃行爲可能會增多。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)