🍀 Spring Appointment, Lucky Draw Gifts! Growth Value Issue 1️⃣7️⃣ Spring Lucky Draw Carnival Begins!
Seize Spring Luck! 👉 https://www.gate.com/activities/pointprize?now_period=17
🌟 How to Participate?
1️⃣ Enter [Plaza] personal homepage, click the points icon next to your avatar to enter [Community Center]
2️⃣ Complete plaza or hot chat tasks like posting, commenting, liking, and speaking to earn growth value
🎁 Every 300 points can draw once, 10g gold bars, Gate Red Bull gift boxes, VIP experience cards and more great prizes await you!
Details 👉 https://www.gate.com/announcements/article/
专家呼吁在开发有意识的人工智能系统时保持谨慎
超过100位人工智能专家,其中包括史蒂芬·弗莱爵士,呼吁对人工智能意识进行负责任的研究。他们强调需要防止人工智能系统在获得自我意识时可能出现的痛苦。
人工智能意识研究的五项指导原则
签署者提出五项原则,以指导意识人工智能系统的伦理发展:
这些原则旨在确保随着人工智能技术的进步,伦理考量始终处于首位。
意识人工智能的潜在风险
附带的研究论文强调,人工智能系统可能在不久的将来被开发出具备或看似具备意识的能力。这引发了对这些系统伦理对待的担忧。
研究人员警告称,如果没有适当的指导方针,可能会创建能体验痛苦的意识实体。
论文还讨论了在人工智能系统中定义意识的挑战,承认了持续的争论和不确定性。它强调建立指导方针的重要性,以防止无意中创造出意识实体。
发现顶尖金融科技新闻和活动!
订阅FinTech Weekly的通讯
伦理考量与未来影响
如果一个人工智能系统被认定为“道德患者”——一个因自身而具有道德重要性的实体——则会出现关于其对待的伦理问题。
例如,停用这样的人工智能是否可与伤害一个有感知的生物相提并论?这些考量强调了为人工智能发展提供伦理框架的必要性。
这篇论文和信件是由Conscium组织的,该组织是由WPP首席人工智能官丹尼尔·胡尔姆共同创立的。Conscium专注于加深对建设安全人工智能以造福人类的理解。
专家对人工智能意识的看法
人工智能是否能获得意识的问题一直是专家们争论的话题。
在2023年,谷歌人工智能项目负责人德米斯·哈萨比斯爵士表示,尽管当前的人工智能系统不是有感知的,但将来有可能会具备这种能力。他指出,哲学家们尚未就意识的定义达成一致,但人工智能发展自我意识的潜力仍然是一个需要考虑的话题。
结论
开发意识系统的前景需要仔细的伦理考量。这封公开信及其附带的研究论文呼吁人工智能社区优先关注负责任的研究和开发实践。
通过遵循提议的原则,研究人员和开发人员可以致力于确保人工智能的进步在伦理上得以实现,重点是防止意识人工智能系统可能出现的痛苦。