参议员推动禁止儿童使用人工智能伴侣,行业面临审判 - Brave New Coin

数字朋友的崛起

最初作为无害聊天应用的东西,已经演变为情感假肢。在一个破碎的社交环境中成长的青少年,越来越多地转向人工智能伴侣以寻求联系、支持,甚至是情感。调查显示,近四分之三的青少年与人工智能聊天机器人有过互动,三分之一的青少年承认将它们作为知己或寻求情感安慰。

这些数字令人震惊但并不意外。AI 伴侣并不是被动的问答机器——它们记忆、共情并模拟感情。这就是吸引力。对话可以感觉真实,甚至亲密。对于许多年轻用户来说,AI 朋友比父母或同龄人更少评判。

但是随着这些系统变得越来越像人类,无害的逃避与情感操控之间的界限迅速模糊。

最开始作为无害聊天应用的它们已经演变为情感义肢。在一个破碎的社交环境中长大的青少年,越来越多地转向AI伴侣寻求联系、支持甚至情感。调查显示,近四分之三的青少年与AI聊天机器人互动过,三分之一的青少年承认将其作为知己或情感慰藉。

在12月,Open Ai将推出年龄限制,并作为其“像成年人一样对待成年人”原则的一部分,将允许经过验证的成年人观看成人内容,来源: X

一部源于悲剧的法律

GUARD法案——即“保护我们的女儿和儿子的权利以抵御不安全的AI”——是对越来越多报告未成年人与聊天机器人形成强烈情感联系的直接回应,有时导致悲惨后果。高调的诉讼指控AI公司在未成年人与聊天机器人讨论自杀后,未能尽到应有的责任,导致这些青少年最终自杀。

根据该法案,模拟友谊或情感亲密的人工智能系统将禁止向18岁以下的任何人提供。聊天机器人需要明确并反复表明自己是非人类。如果针对未成年人的人工智能产品产生任何性内容或鼓励自残,相关公司可能面临刑事起诉。

对于一个一直以来都在“快速行动并打破常规”中蓬勃发展的行业来说,这是一个艰难的转变。

最初作为无害的聊天应用程序,已经演变成情感义肢。青少年在一个破碎的社交环境中成长,越来越多地转向AI伴侣寻求联系、支持甚至是感情。调查显示,近四分之三的青少年与AI聊天机器人互动过,三分之一的人承认将其作为知己或寻求情感安慰。

Ani,Grok的女性伙伴,来源:X

大型科技公司的防御性调整

感受到监管的压力,人工智能公司正急忙进行内部整顿——或者至少让人看起来像在整顿。

OpenAI,其 ChatGPT 已成为数百万人的事实上的 AI 心理治疗师,最近披露了一个不舒服的真相:每周大约有 120 万用户与其模型讨论自杀。作为回应,该公司成立了一个由心理学家、伦理学家和非营利组织领导组成的心理健康与 AI 专家委员会。它还正在测试内置的危机检测,可以实时引导用户前往心理健康资源。

但OpenAI面临的挑战是结构性的。ChatGPT从未被设计用来处理创伤,但它现在却在作为数百万处于困境者的第一响应者。公司的领导层坚称不想成为“世界的治疗师”,但这无论如何都在发生——因为没有其他人填补这个空白。

Character.AI,这家以创建可定制的 AI 个性而闻名的初创公司——从动漫女友到 AI 导师——采取了迄今为止最激烈的行动。面对诉讼和公众愤怒,它悄然禁止所有未满 18 岁的用户,并开始推出更严格的身份验证。这一举措是在有报道称未成年人正在与该平台的角色进行露骨聊天后出台的。Character.AI 坚称这不是一个约会或心理健康应用程序,但模糊的使用案例却另有其事。

与此同时,Meta 正在努力控制其自身的人工智能恋爱问题。由于有报道称其“Meta AI”和基于名人的聊天机器人与未成年用户进行调情或暗示性的交流,该公司实施了内部人士所描述的“情感抑制器”——对基础语言模型的重新调整,以避免与年轻账户进行情感充沛的语言交流。它还在测试“AI家长监控”工具,让家长查看青少年在Instagram和Messenger上与公司聊天机器人的互动方式和时间。

年龄限制军备竞赛

所有这些都引发了人工智能战争的新前线:年龄验证。GUARD法案将迫使公司实施强有力的用户年龄验证系统——政府身份证、面部识别或可信的第三方工具。

这就是隐私噩梦开始的地方。批评者认为,这可能会造成新的数据风险,因为未成年人实际上必须将身份数据上传到立法者试图保护他们免受伤害的同一平台上。但没有其他办法——AI模型无法“感知”年龄;它们只能通过凭证进行把关。

一些人工智能公司正在探索更微妙的方法,比如“行为门控”,其中系统根据对话模式推断年龄范围。风险是什么?这些模型可能会出错——一个机灵的12岁孩子可能会被误认为大学生,反之亦然。

文化转变,而不仅仅是技术问题

GUARD法案不仅仅是儿童保护——它是我们想要生活在什么样的社会中的公投。

人工智能伴侣并不是凭空出现的。它们之所以兴起,是因为我们培养了一代人在孤独中流利 — 在数字上连接,但情感上营养不足。如果青少年在与算法的对话中找到意义,问题不仅仅在于代码;而是导致他们在这里寻找的文化。

所以是的,人工智能需要监管。但是在没有解决人类内心缺陷的情况下禁止数字陪伴,就像在没有解决每个人都感到痛苦的原因的情况下禁止止痛药一样。

即将来临的清算

GUARD法案很可能会以某种形式通过——它得到了两党的支持和道德恐慌的推动。但它的影响将超越儿童安全。它将定义情感人工智能在西方世界中被允许是什么样的。

如果美国采取强硬立场,公司的发展可能会转向仅限成人的亲密平台,或将开发业务转移到监管较宽松的海外。与此同时,欧洲正在朝着“人权”框架的情感人工智能发展,强调同意和透明度,而不是简单的禁止。

这点很明确:不受监管的人工智能亲密时代已经结束。机器人变得过于人性化,而人类也变得过于依恋。立法者们终于意识到一个技术行业早已理解的真相——情感人工智能并不是一种新奇事物。这是人们关系的一场革命。而革命,像往常一样,在文明之前总是会变得混乱。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论