专家呼吁在开发有意识的人工智能系统时保持谨慎


超过100位人工智能专家,其中包括史蒂芬·弗莱爵士,呼吁对人工智能意识进行负责任的研究。他们强调需要防止人工智能系统在获得自我意识时可能出现的痛苦。

人工智能意识研究的五项指导原则

签署者提出五项原则,以指导意识人工智能系统的伦理发展:

2.      

**优先研究人工智能意识:** 专注于理解和评估人工智能中的意识,以防止虐待和痛苦。

    
4.      

**实施发展限制:** 建立明确的界限,以确保意识人工智能系统的负责任开发。

    
6.      

**采取阶段性方法:** 在开发意识人工智能时逐步推进,以便在每个阶段进行仔细评估。

    
8.      

**促进公众透明度:** 与公众分享研究结果,以促进知情讨论和伦理监督。

    
10.      
 
 **避免夸大的声明:** 避免对创造意识人工智能做出误导性或过于自信的陈述。

这些原则旨在确保随着人工智能技术的进步,伦理考量始终处于首位。

意识人工智能的潜在风险

附带的研究论文强调,人工智能系统可能在不久的将来被开发出具备或看似具备意识的能力。这引发了对这些系统伦理对待的担忧。

研究人员警告称,如果没有适当的指导方针,可能会创建能体验痛苦的意识实体。

论文还讨论了在人工智能系统中定义意识的挑战,承认了持续的争论和不确定性。它强调建立指导方针的重要性,以防止无意中创造出意识实体。


发现顶尖金融科技新闻和活动!

订阅FinTech Weekly的通讯


伦理考量与未来影响

如果一个人工智能系统被认定为“道德患者”——一个因自身而具有道德重要性的实体——则会出现关于其对待的伦理问题。

例如,停用这样的人工智能是否可与伤害一个有感知的生物相提并论?这些考量强调了为人工智能发展提供伦理框架的必要性。

这篇论文和信件是由Conscium组织的,该组织是由WPP首席人工智能官丹尼尔·胡尔姆共同创立的。Conscium专注于加深对建设安全人工智能以造福人类的理解。

专家对人工智能意识的看法

人工智能是否能获得意识的问题一直是专家们争论的话题。

在2023年,谷歌人工智能项目负责人德米斯·哈萨比斯爵士表示,尽管当前的人工智能系统不是有感知的,但将来有可能会具备这种能力。他指出,哲学家们尚未就意识的定义达成一致,但人工智能发展自我意识的潜力仍然是一个需要考虑的话题。

结论

开发意识系统的前景需要仔细的伦理考量。这封公开信及其附带的研究论文呼吁人工智能社区优先关注负责任的研究和开发实践。

通过遵循提议的原则,研究人员和开发人员可以致力于确保人工智能的进步在伦理上得以实现,重点是防止意识人工智能系统可能出现的痛苦。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论