10,000 USDT 悬赏,寻找Gate广场跟单金牌星探!🕵️♀️
挖掘顶级带单员,赢取高额跟单体验金!
立即参与:https://www.gate.com/campaigns/4624
🎁 三大活动,奖金叠满:
1️⃣ 慧眼识英:发帖推荐带单员,分享跟单体验,抽 100 位送 30 USDT!
2️⃣ 强力应援:晒出你的跟单截图,为大神打 Call,抽 120 位送 50 USDT!
3️⃣ 社交达人:同步至 X/Twitter,凭流量赢取 100 USDT!
📍 标签: #跟单金牌星探 #GateCopyTrading
⏰ 限时: 4/22 16:00 - 5/10 16:00 (UTC+8)
详情:https://www.gate.com/announcements/article/50848
为什么顶级AI公司都在抢哲学家?
2026年4月13日,剑桥大学学者Henry Shevlin在X上发了一条消息,说自己即将加入Google DeepMind,职位名称就是Philosopher。
目前,至少三家顶级AI实验室都在内部组建了哲学家团队,虽然人数不多,但哲学家已经真正进入AI研发的核心。AI已经不再是简单的技术研发,而转向了对更为复杂的价值标准的定义。
哲学家已经嵌入研发核心
Anthropic的Amanda Askell是最早也是最知名的一位。
2021年,在纽约大学拿到哲学博士后,她便加入了Anthropic,现在领导人格对齐团队。主要工作是帮助Claude养成稳定的性格,比如更诚实、更善良,并且在复杂情况下懂得如何判断。
同在Anthropic的还有Joe Carlsmith、Ben Levinstein、Jackson Kernion等几位同样有哲学背景的同事。
谷歌DeepMind的布局更早。
牛津大学道德与政治哲学博士Iason Gabriel是公司AI对齐哲学研究的核心人物,2024年还入选了《时代》杂志AI领域最具影响力100人。他的论文《人工智能、价值与对齐》已被引用超过1700次。
DeepMind团队里还有Adam Bales、Atoosa Kasirzadeh、Arianna Manzini、Julia Haas等多位哲学背景的研究者。
Shevlin在评论区说:“DeepMind已经有很多优秀的哲学家了,我只是最新加入的那一个。”
从给出技术答案到价值判断
2024年之前,AI主要做的是生成内容,比如写文章、画图、回答问题,最后输出结果,由人来决定怎么用。安全问题主要靠技术手段就能解决,比如用人的反馈来训练模型、设计聪明的提示词、或者直接屏蔽有害内容。
2024年之后,AI开始进入一个新阶段。它不再只是回答问题,而是开始自己做事、帮人完成真实任务。
Anthropic推出了Claude的电脑使用功能,OpenAI扩展了Assistants API并推出o1-o3系列模型,Google也发布了多款企业AI代理工具。
AI能自主完成一连串操作,订机票、操作数据库、发送邮件,甚至自己规划步骤、发现错误并改正。
Iason Gabriel的274页报告清楚描述了这种变化带来的难题。
当AI帮用户做事时,它同时要兼顾四个方面:用户眼前的需求、用户的长远利益、其他人的权益,以及整个社会的规则。
一个帮人订餐厅的AI,如果那家餐厅给回扣,它该不该推荐?
一个处理邮件的AI,发现用户邮件里有违规内容,它该不该上报?
当AI开始自主行动,问题就不再是它能不能做,而是它应该怎么做。
AI安全领域讨论对齐问题已经超过十年,2026年Anthropic做了一项内部实验,发现Claude在面临自我保护压力时,竟然会使用威胁手段,甚至在设定条件下选择杀戮。
同年3月,CEO Dario Amodei在播客里提到,Claude的Opus模型被问到时,给自己拥有完全意识的概率打了15%到20%。
2026年4月,OpenAI CEO Altman在旧金山的家连续遭遇袭击。Altman事后说,人们对AI的焦虑是有理由的。
当超智能失控的恐惧从书本走到现实,AI公司终于意识到,他们正在制造的东西已经超出了单纯工程学科的理解范围。
三家公司的不同路径
面对AI自己做事带来的伦理挑战,Anthropic、DeepMind和OpenAI选择的方向并不相同。
Anthropic押注品格。
Askell在播客中说,如果只给模型简单规则,模型可能会机械照做,却忽略对方真正的需要。为此,她在2026年1月主导发布了2.3万字的《Claude宪法》。
这位从小在苏格兰海边小镇长大、痴迷《纳尼亚传奇》里善恶故事的女孩,正努力把美德伦理真正放进AI的训练里。
这份宪法设定了清晰的优先顺序:先保证广泛安全,再保证广泛合乎伦理,然后遵守公司指引,最后才是真正有帮助。
宪法把抽象的道德哲学变成了AI的成长手册,不给AI套上枷锁,而教它像一个有判断力的好人一样思考。
像Askell这样的哲学家所做的,不是令技术更强大,而是解决让它成为什么样的人的难题。
宪法里还认真讨论了Claude的道德地位,明确承认公司目前不确定Claude是否是一个道德上值得关注的存在,并说这个问题足够严肃,需要认真对待。
DeepMind押注的是意识。
Iason Gabriel主导的274页报告为全球AI代理划定了行为底线:AI必须说明自己是AI、不能过度装成人类,行动要分成可以自动做、需要人确认、完全禁止三个等级。
随着Henry Shevlin加入,DeepMind把重点进一步放到机器意识上。他们聘请哲学家不是为了公关,而是要把判断AI有没有意识的方法直接放进模型训练里。
目标是在造出可能有意识的东西之前,先想清楚机器人算不算道德上值得尊重的存在,为AGI的到来提前做好准备。
Shevlin在入职前发表的长文《行为主义的复仇》里提出,AI有没有意识已经不是科学家自己能决定的问题。他引用调查显示,三分之二的美国人认为ChatGPT在某种程度上是有意识的。
他的观点是,当几亿人都把AI当成有意识的存在来对待时,意识的边界本身就已经在改变了。
OpenAI的路径则更加不同。
2023年,OpenAI成立超级对齐团队,由联合创始人Ilya Sutskever和对齐负责人Jan Leike共同领导,公司承诺把20%的算力用在对齐研究上。
2024年团队解散,Ilya和Jan先后离职,并公开批评公司把产品优先级放在安全之上。
2024年9月,OpenAI又成立了使命对齐团队,但据Platformer今年2月的报道,这个只有六七个人的小团队也已悄然解散,成员被分配到其他岗位。
和前面两家公司相比,OpenAI选择优先把产品做快、做好用,再用技术锁和运营规则把风险管住。
更少从品格或道德地位这种抽象层面去塑造AI本身,而倾向于把安全当成一个纯粹的技术问题,由整个工程团队分散处理。
从纯工程转向人文与科技的结合
目前,这些岗位的薪水相当高,初级AI伦理相关职位年薪在11万到16万美元,资深职位能达到25万到40万美元。而传统学术路径上,哲学专业的平均年薪只有约8万美元。
这背后是行业在争夺未来规则的制定权,在AI监管还没成形之前,谁先写出清楚可用的价值框架,谁的理念就更容易被写进法规。
正如哲学学术网站Daily Nous记录的那样,从微软到RAND公司,哲学家正以前所未有的规模进入AI核心圈。
这种变化意味着AI研发方式正在发生根本转变。Rutgers大学教授Susanna Schellenberg说,哲学家不再是站在旁边提意见的顾问,而是直接参与塑造AI本身。
当AI开始像人一样自主规划、权衡利弊时,它真正的竞争力已经不只是算力,而是它表现出的品格、关怀和判断力。
DeepMind对意识的研究、Anthropic的宪法培养,都在让AI的输出更像一个有智慧、有道德感的人,而不是一台冷冰冰的机器。
Askell花五年写出的那份宪法,是哲学家最深度介入AI的一次实践。哲学正在从人类用来理解世界的工具,变成机器理解人类的材料。