微软人工智能部门负责人呼吁不要将意识归因于人工智能

人工智能帮助推进超人类主义# 微软AI部门负责人呼吁不要将意识归因于神经网络

只有生物生物体才能拥有意识。开发者和研究人员必须停止那些假设相反的项目,微软人工智能部门负责人穆斯塔法·苏莱曼在与CNBC的谈话中表示。

«我认为人们不应该从事这样的工作。如果问错了问题,就会得到错误的答案。我认为这绝对是这种情况,» 他在休斯顿的AfroTech会议上说。

微软的高管反对创造能够意识到的人工智能或据称可能会遭受痛苦的人工智能服务的前景。

在八月份,苏莱曼写了一篇文章,提出了一个新术语——“看似有意识的人工智能” (看似有意识的AI,SCAI)。这样的人工智能具有所有理性生物的特征,因此似乎具有意识。它模拟了自我感知的所有特征,但内心是空的。

「我想象的系统实际上并不是有意识的,但它将如此有说服力地模拟类似于人类思维的存在,以至于这将与您或我可能对彼此关于我们自己思维的声明无法区分。」——苏莱曼。

给人工智能赋予意识是危险的,专家认为。这将加剧误解,产生新的依赖问题,利用我们的心理脆弱性,引入新的极化维度,复杂化现有的权利争论,并为社会创造巨大的新的范畴错误。

在2023年,苏莱曼成为了书籍《即将到来的浪潮:技术、权力与21世纪最大的困境》的作者,该书详细探讨了人工智能和其他新技术的风险。其中包括:

  • 生态和社会的破坏——技术可能会如此快速地改变工作,以至于人们习惯的角色会消失;
  • 控制问题——随着人工智能的不断发展,越来越难以保证其在人的利益下运行;
  • 使用技术进行网络攻击、操纵社会和其他威胁;
  • 需要拥有技术和制度机制来遏制人工智能;
  • 国家权力和传统机构的削弱。

AGI

人工智能市场正朝着AGI(通用人工智能)的方向发展,这种智能能够在人的水平上执行任何任务。8月,OpenAI的首席执行官萨姆·奥特曼表示,这个术语可能“不是很有用”。模型发展迅速,未来我们将“越来越多”地依赖它们,认为他。

对于苏莱曼来说,明确划分人工智能变得更聪明与其是否能够体验人类情感之间的界限是很重要的。

«我们的身体经历疼痛,这让我们感到非常悲伤,并使我们感到非常糟糕,但人工智能在经历“疼痛”时并不会感到悲伤,»他说。

根据专家的说法,这是一个非常重要的区别。实际上,人工智能创造了一种感知——关于自身和意识的似是而非的叙述——但它实际上并没有体验这一切。

«技术上你知道这一点,因为我们可以看到模型在做什么»,专家强调道。

在人工智能领域,哲学家约翰·塞尔提出了一种名为生物自然主义的理论。它指出,意识依赖于活脑的过程。

«我们今天赋予人们权利的原因在于,我们不想对他们造成伤害,因为他们正在受苦。他们有痛苦和偏好,包括避免痛苦。这些模型没有这些。这只是一个模拟。」——苏莱曼说。

顶级管理者反对对人工智能意识进行研究的想法,因为它没有意识。他表示,微软正在创建意识到自己是人工的服务。

「简单来说,我们正在创建一种始终为人类利益而工作的人工智能。」——他指出。

提醒一下,10月份,Anthropic的专家发现,领先的人工智能模型能够表现出一种“内省自我意识”的形式——它们能够识别和描述自身的“思想”,在某些情况下甚至能够控制这些“思想”。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
  • 热门 Gate Fun查看更多
  • 市值:$4134.48持有人数:1
    0.00%
  • 市值:$4164.39持有人数:2
    0.02%
  • 市值:$4055.17持有人数:1
    0.00%
  • 市值:$4013.79持有人数:1
    0.00%
  • 市值:$3972.41持有人数:1
    0.00%
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)