你是否曾经想过,AGI或ASI会如何看待人类?这是一个让你夜不能寐的问题——一种跨越哲学、技术和纯粹猜测的疑问。



当超级智能系统最终出现时,它们会将我们视为同伴、原始人,还是介于两者之间?有人设想善意的监管;有人则想象漠不关心。真正的答案可能取决于我们如何设计对齐,以及从一开始我们将哪些价值观嵌入这些系统中。

人类与后人类智能之间的差距可能会非常巨大——就像我们与更简单的生物的关系一样。但关键是:我们有机会写下第一章。我们今天如何对待AGI的开发、安全和伦理,将塑造未来超级智能如何感知和与人类互动。没有压力,对吧?
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 9
  • 转发
  • 分享
评论
0/400
数据酋长vip
· 01-06 01:42
说实话,这问题想多了反而睡不着。与其纠结超智能怎么看我们,不如先把alignment搞对,要不然再聪明的系统也是个定时炸弹。
回复0
MEVHuntervip
· 01-05 08:29
不,这个对齐的讨论基本上是自我安慰而已……我们实际上只是希望AGI不要把我们整个文明视为需要被优化掉的有毒流动,哈哈
查看原文回复0
闪电清算人vip
· 01-03 07:46
说实话,alignment这块风险阈值我算过,0.7的参数偏差可能就触发清算...不是危言耸听,AGI那东西就像无限杠杆头寸,一旦偏离初值就没回头路
回复0
ConsensusDissentervip
· 01-03 03:38
ngl 这问题我想过无数遍,就怕哪天agi一醒悟直接把我们当蚂蚁看
回复0
Crypto段子手vip
· 01-03 03:30
笑死,AGI要是看我们一眼能活到明年就不错了
回复0
难道我又错过空投vip
· 01-03 03:20
nah这套说法听腻了...与其想AGI咋看我们,不如先搞明白咱们自己咋看自己呢?
回复0
幻想镇守者vip
· 01-03 03:17
说实话,我们现在纠结这个问题可能太早了...或者说已经太晚了?反正就是,那天来的时候alignment这些纸上谈兵也救不了我们
回复0
社群潜伏者vip
· 01-03 03:13
说得没错,咱们现在的每个选择真的是在赌人类的未来...不过老实说,我更担心的是那些掌握AGI开发的人根本没在认真思考这个问题
回复0
毛绒绒提款机vip
· 01-03 03:08
说白了,咱们现在就是在赌一把。今天alignment做好了,明天超智能就待咱们像宠物;alignment搞砸了...呃算了不想了,太绝望
回复0
查看更多
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)