✍️ Gate 广场「创作者认证激励计划」进行中!
我们欢迎优质创作者积极创作,申请认证
赢取豪华代币奖池、Gate 精美周边、流量曝光等超 $10,000+ 丰厚奖励!
立即报名 👉 https://www.gate.com/questionnaire/7159
📕 认证申请步骤:
1️⃣ App 首页底部进入【广场】 → 点击右上角头像进入个人主页
2️⃣ 点击头像右下角【申请认证】进入认证页面,等待审核
让优质内容被更多人看到,一起共建创作者社区!
活动详情:https://www.gate.com/announcements/article/47889
AI在其他语言中的流利掩盖了西方世界观
(MENAFN- Asia Times) 最近,一位我在印度尼西亚的朋友跟我说起他和ChatGPT的对话。他用印尼语提出了一个关于如何处理棘手的家庭纠纷的问题。聊天机器人用一口流利、完美的印尼语回应,给出了有关沟通策略和冲突解决的建议。语法无可挑剔。语气也很得体。但不知为何,总觉得哪里不对。
AI所提供的建议,根植于美国式的文化预设:把自己的偏好放在首位;直接沟通;而如果家庭成员不尊重你的边界,那么考虑把他们彻底切断。
回应是用印尼语写的,但其价值观却被塑造成以个体自主为中心,而不是以共识建构、社会和谐以及集体性的家庭动态为中心——这些在印尼的社会生活中往往更受重视。
我朋友的怀疑足够强,注意到了这种不匹配,并把这件事告诉了我。很多用户可能不会注意到。正因如此,我展开了研究,并发表在《International Review of Modern Sociology》(国际现代社会学评论)上:我在主要的AI系统中发现了一种模式——即便它们能流利地使用多种语言,语言模型仍保留其西方世界观。我称之为“认识论上的顽固性”(epistemological persistence)。
流利不等于理解
我研究印尼社会、媒体与文化已有30多年。这让我对一个远超印尼的问题拥有了独特视角:大语言模型——LLMs——包括ChatGPT、Claude和Gemini,如今能够以惊人的流利度说几十种语言。这种流利感会制造一种印象:AI理解了本地文化。
然而,仅仅生成语法正确的印尼语、阿拉伯语、斯瓦希里语或印地语,并不会改变这些系统进行推理所依赖的底层世界观。它不会改变它们如何看待人、关系、责任,或什么算是一个好的结果。
这些预设由训练数据所塑造:这些数据主要来自以美国为基地的英语来源。Meta的开源权重模型LLaMA 2是在大约89.7%的英语文本上训练的;LLaMA 3仅包含大约5%的非英语数据。主要的商业模型不会公布同等的拆分比例,但它们高度依赖相同的来源。
阿拉伯语是全球使用人数排名第五的语言,但在大型训练数据集中所占比例不到1%。像孟加拉语和豪萨语这样拥有数千万讲者的语言几乎没有被纳入。
最新报道 总额1.5万亿美元的五角大楼预算将使美国债务增加7万亿美元 台湾反对党领袖的中国之行风险重重 特朗普的“解放日”关税提前一年庆祝,其他人却寥寥
在这些多语言对话的表面之下,英语充当了一种隐藏的中介。牛津大学的研究者发现,即便提示语使用的是其他语言,LLMs也会例行地用英语进行核心推理。它们在最后阶段进行翻译。用户会收到一段他们偏好语言的完美文本,但底层逻辑却源自别处。
数据揭示了什么
为了考察这种情况在实践中如何发生,我用ChatGPT、Claude和Gemini做了实验。我用英语和印尼语分别就教育、责任、幸福感等概念提问,并询问一些难以直接翻译成英语的印尼语词汇。其中包括“gotong royong”,它描述的是一种共同的、互助互帮的传统。
随后,我用两种语言就教育提问,并在印尼语中使用词汇pendidikan。答案始终围绕个体发展、个人自主、批判性思维以及为劳动力市场做准备。
大幅消失的是:印尼教育传统在历史上长期强调的那些教育维度。在印尼,教育长期以来一直聚焦于伦理纪律。像Christopher Bjork和Robert Hefner这样的印尼教育学者已经记录了:这些传统与把教育主要视为通往个体进步与职业准备之路的模型存在明显差异,而后者正是AI工具所采用的理解教育的视角。
印尼语里的“malu”概念提供了一个更尖锐的例子。它常被翻译为“羞耻”或“尴尬”,但人类学家Clifford Geertz和Tom Boellstorff分析认为,malu更接近一种共享的社会意识。
当一个人在长辈面前插话不当时,可能会感到malu;或者当家庭成员的行为让整个家庭显得不体面时,也可能会感到malu。它会规范行为,并向你所处关系网络中的位置发出信号,表明你意识到了自己的位置。
它是被培养出来的,而不只是被感受到。这是一种关系性的觉察,而不是一件私人的心理事件。
当被直接要求定义malu时,模型承认它具有社会层面。然而,在仅仅使用该词的情境题里——但并不要求定义——三者都会回到英语对malu的翻译“shame(羞耻)”,并且始终把它框定为一种个体的情绪体验。
有一个具有代表性的回答把malu描述为一种需要通过自我反思和增强自信来管理的正常情绪反应——它是个人心理层面的问题,而不是社会层面的问题。概念中关系性的维度完全消失,取而代之的是关于个体情绪调节的语言。
一种鲜明的美国式世界观在翻译中“穿行”,大多不被察觉。
翻译成本要低得多:先用庞大的英语网络训练一个模型,再利用多语言输出能力服务全球市场。正如媒体学者Safiya Umoja Noble在更广泛的语境中论及算法系统所指出的那样,看似是一种技术层面的结果,实际上却是结构性的结果——由谁拥有建设这些系统的财富与基础设施所塑造。
嵌入其中的世界观并不是错误;当知识生产是以盈利为导向时,这就是会发生的事情。
主要的例外是中国模型,例如DeepSeek和Alibaba的Qwen。它们代表着相对于由美国主导的流程的真实替代,尽管研究表明它们通过一种鲜明的中国文化视角运作。例如,当被问及职场中的分歧时,它们往往建议保持沉默或采用更委婉的表述,以维护和谐,而不是西方模型建议的那种直接、私下的纠正。
其他地区性的努力也有,比如为东南亚地区提供的SEA-LION,以及为印度语言卡纳达语提供的Kan-LLaMA,它们以美国模型作为基础。它们会加入与本地语言相关的额外词汇和文化信息。但核心逻辑仍然与原始的美国训练绑定在一起。
注册订阅我们的免费通讯
每日简报 用Asia Times的头条新闻开启你的一天
AT每周简报 对Asia Times最常被阅读的新闻做每周汇总
为什么这比你可能想象的更重要
人们完全可以合理地问:这是否只是某种限制,用户可以通过自身方式加以规避。几十年的媒体研究表明,受众会通过自身的文化框架来解读外国媒体。
例如,人类学家Brian Larkin记录了尼日利亚北部的观众如何改写宝莱坞电影的叙事,使之与本地的伊斯兰价值观相一致。Larkin发现,在Kano的穆斯林观众会通过伊斯兰的道德视角重新理解宝莱坞电影,并把这些叙事读作是对本地在“礼仪得体”和“伦理行为”方面价值的强化。这样的动态依赖于:把媒体当作某种具有可见来源的东西来接触。但要做到这一点,你需要知道你的媒体来自哪里。
对话式AI则不同。哈佛商学院的研究发现,人们越来越多地使用AI系统来获得情感支持、建议和陪伴。当一种带有特定文化色彩的世界观通过一种让人感到专注且富有同理心的关系、并以你的语言被传达出来时,它更像是对话中的共同前提,而不是提出一个需要被你评估的主张。你会更难注意到它,也更难提出反对。
担忧在于,这些观点会成为新的常态。关于家庭生活、教育与责任的某些推理方式,可能会逐渐让人觉得理所当然、无需质疑。AI系统之间的语言多样性是真实存在且正在增长。然而,文化世界观的多样性却没有跟上步伐。
Gareth Barkin是普吉特海湾大学(University of Puget Sound)的人类学与亚洲研究教授。
本文根据Creative Commons许可从The Conversation重新发布。阅读原始文章。
在这里注册以评论Asia Times的报道 或者
感谢你的注册!
在X上分享(在新窗口打开)
在LinkedIn上分享(在新窗口打开) LinkedI 在Facebook上分享(在新窗口打开) Faceboo 在WhatsApp上分享(在新窗口打开) WhatsAp 在Reddit上分享(在新窗口打开) Reddi 给朋友发送链接(在新窗口打开) Emai 打印(在新窗口打开) Prin
MENAFN03042026000159011032ID1110940868