奥特曼,OpenAI的首席执行官,最近分享了一个关于数字通信趋势的有趣观察。根据奥特曼的说法,在线讨论越来越显示出类似于人工智能的特征,使得在数字平台上区分人类创作的内容和人工智能生成的文本变得具有挑战性。在9月8日,奥特曼描述了他所称的“最奇怪的经历”,当时他在阅读关于OpenAI Codex模型增长的评论。尽管知道该产品的强大性能指标是真实的,但他发现自己本能地假设这些在线讨论是由自动化系统生成的,而不是由真实用户产生的。> 我在阅读这个时经历了最奇怪的体验:我假设这都是假的/机器人,即使在这种情况下我知道Codex的增长真的很强,而且这里的趋势是真实的。>> 我认为有很多事情在发生:真实的人们已经习惯了大型语言模型的说话方式,极其…>> — 奥特曼 (@sama) 2025年9月8日## 人类与人工智能交流之间模糊的界限"我读这个时经历了最奇怪的体验,"奥特曼表示。"我假设这一切都是假的/机器人,尽管在这种情况下我知道编码增长确实很强,趋势在这里是真实的。"OpenAI首席执行官的评论强调了在数字空间中对内容真实性日益增长的不确定性,这一担忧对于像区块链和Web3这样对验证敏感的社区尤为相关。在试图诊断这一现象时,奥特曼确定了多个促成因素。这些因素包括人类采用典型于大型语言模型的语言模式(LLMs)、社交媒体平台上对算法优化的压力,这些平台优先考虑参与度而非真实性,以及旨在模拟有机兴趣的企业“草根运动”技术。奥特曼得出结论,这些综合力量已经改变了数字话语:"某种程度上,AI twitter/AI reddit 感觉非常虚假,和一两年前真的不一样。" 这一观察对高度依赖社区信任和沟通完整性的去中心化数字生态系统产生了重大影响。## 社区响应与身份验证挑战对奥特曼的帖子回应各异,一些用户对他公司在这一数字通信转型中的角色表示怀疑。一位自称为r/claudecode子版块创始版主的用户给出了一个特别有见地的回复。这位版主提供了技术背景:"虽然那张截图中的评论看起来像是机器人发的,但这些账户都没有触发删除或垃圾邮件过滤器。大多数账户存在超过5年,活跃于数百个子版块,并且没有遵循假账户的模式。如果他们是被支付的,我们无法可靠地验证。"主持人进一步阐述了社区动态:"自从GPT-5发布以来,子版块的语气发生了变化。很多新加入的人更喜欢Codex CLI而不是Claude代码,自然,有一部分发声强烈的群体提出反对。小众社区总是会放大这些波动。我想说,做得好,OpenAI。"这一身份验证挑战对去中心化平台和交易社区具有深远的影响,在这些地方,建立内容的合法性直接影响财务决策和市场诚信。## “死互联网理论”获得新关注奥特曼最近的评论紧随他之前的承认,他"从未认真对待死互联网理论,直到现在,"当时似乎"真的有很多由LLM驱动的Twitter账户。"死互联网理论——一个建议互联网越来越被AI生成内容而非人类参与所主导的概念——根据包括《纽约杂志》在内的多个来源的分析,有两个主要组成部分:1. **人类活动的位移**:自动化系统和算法策展日益决定用户在线所遇到的内容2. **协调控制**:该理论表明,政府和企业可能会故意操纵内容的可见性,限制真实互动,放大虚假声音。尽管没有确凿的证据支持广泛的政府阴谋论,但自动化流量和数字内容退化的文献记录(通常被称为“链接腐烂”),仍然持续推动人们对数字空间内容真实性的讨论。奥特曼的观察引发了技术社区的重新讨论,许多用户确认了遇到可疑相似或看似由人工智能生成的回应的类似经历。其他人则指出了这些担忧的讽刺性质,因为OpenAI在规范化和分发能够生成类人文本的人工智能系统方面发挥了重要作用。这一发展中的情况为数字资产生态系统和交易平台带来了特别的挑战,在快速变化的市场中,区分合法的市场情绪与人为生成的内容变得越来越关键,以便做出明智的决策。
AI在Web3通信中日益增长的影响力:奥特曼指出互联网的演变特性
奥特曼,OpenAI的首席执行官,最近分享了一个关于数字通信趋势的有趣观察。根据奥特曼的说法,在线讨论越来越显示出类似于人工智能的特征,使得在数字平台上区分人类创作的内容和人工智能生成的文本变得具有挑战性。
在9月8日,奥特曼描述了他所称的“最奇怪的经历”,当时他在阅读关于OpenAI Codex模型增长的评论。尽管知道该产品的强大性能指标是真实的,但他发现自己本能地假设这些在线讨论是由自动化系统生成的,而不是由真实用户产生的。
人类与人工智能交流之间模糊的界限
"我读这个时经历了最奇怪的体验,"奥特曼表示。"我假设这一切都是假的/机器人,尽管在这种情况下我知道编码增长确实很强,趋势在这里是真实的。"OpenAI首席执行官的评论强调了在数字空间中对内容真实性日益增长的不确定性,这一担忧对于像区块链和Web3这样对验证敏感的社区尤为相关。
在试图诊断这一现象时,奥特曼确定了多个促成因素。这些因素包括人类采用典型于大型语言模型的语言模式(LLMs)、社交媒体平台上对算法优化的压力,这些平台优先考虑参与度而非真实性,以及旨在模拟有机兴趣的企业“草根运动”技术。
奥特曼得出结论,这些综合力量已经改变了数字话语:"某种程度上,AI twitter/AI reddit 感觉非常虚假,和一两年前真的不一样。" 这一观察对高度依赖社区信任和沟通完整性的去中心化数字生态系统产生了重大影响。
社区响应与身份验证挑战
对奥特曼的帖子回应各异,一些用户对他公司在这一数字通信转型中的角色表示怀疑。
一位自称为r/claudecode子版块创始版主的用户给出了一个特别有见地的回复。这位版主提供了技术背景:"虽然那张截图中的评论看起来像是机器人发的,但这些账户都没有触发删除或垃圾邮件过滤器。大多数账户存在超过5年,活跃于数百个子版块,并且没有遵循假账户的模式。如果他们是被支付的,我们无法可靠地验证。"
主持人进一步阐述了社区动态:"自从GPT-5发布以来,子版块的语气发生了变化。很多新加入的人更喜欢Codex CLI而不是Claude代码,自然,有一部分发声强烈的群体提出反对。小众社区总是会放大这些波动。我想说,做得好,OpenAI。"
这一身份验证挑战对去中心化平台和交易社区具有深远的影响,在这些地方,建立内容的合法性直接影响财务决策和市场诚信。
“死互联网理论”获得新关注
奥特曼最近的评论紧随他之前的承认,他"从未认真对待死互联网理论,直到现在,"当时似乎"真的有很多由LLM驱动的Twitter账户。"
死互联网理论——一个建议互联网越来越被AI生成内容而非人类参与所主导的概念——根据包括《纽约杂志》在内的多个来源的分析,有两个主要组成部分:
尽管没有确凿的证据支持广泛的政府阴谋论,但自动化流量和数字内容退化的文献记录(通常被称为“链接腐烂”),仍然持续推动人们对数字空间内容真实性的讨论。
奥特曼的观察引发了技术社区的重新讨论,许多用户确认了遇到可疑相似或看似由人工智能生成的回应的类似经历。其他人则指出了这些担忧的讽刺性质,因为OpenAI在规范化和分发能够生成类人文本的人工智能系统方面发挥了重要作用。
这一发展中的情况为数字资产生态系统和交易平台带来了特别的挑战,在快速变化的市场中,区分合法的市场情绪与人为生成的内容变得越来越关键,以便做出明智的决策。