「没有对手?我有话说!」Gate广场挑战赛——秀操作赢$2,000,百万流量加持!
你是下一个明星交易员吗?
想让自己的名字闪耀广场热搜?想吸引数万追随者?百万流量已就位,就等你来承接!
🎉 双重豪礼,赢家通吃!
1️⃣ 晒单排行榜奖励
收益率排名前10的用户,瓜分 $1,500合约体验券!巅峰对决等你来战!
2️⃣ 晒单幸运奖
随机抽取10位用户,每人赠送 $50跟单包赔券!即使不是大神,也有机会躺赢!
🎮 参与方式超简单!
✅ 在 Gate广场 晒出你的交易战绩,并成为带单员!
✨ 发帖要求:
内容必须原创,并带上 #CopyTrading# 或 #跟单# 标签
附上 收益率截图 或 交易卡片,并分享你的 独家交易心得
严禁AI生成虚假交易,一经发现取消资格
观点犀利、逻辑清晰,干货越多越吸粉!
⏰ 活动截止:8月15日 10:00(UTC+8)
【立即发帖】 展现你的王者操作,承接百万流量,成为下一个交易传奇!
💬 还在等什么?Gate广场,等你来战! 💪
OpenAI 被扒了个底朝天:非营利转向营利的阴谋论
OpenAI 正在系统性地、有预谋完成了从「为人类谋福祉」到「为投资者谋利润」的根本性转变,CEO 奥特曼存在长期、有据可查的言行不一、操纵资讯和规避监督的行为模式,且个人投资与公司业务的深度捆绑。 (前情提要:GPT-5 今夏登场!Sam Altman 亲揭 OpenAI 下一代模型蓝图、Stargate 星际之门野心、会有广告吗? ) (背景补充:OpenAI 震撼弹!并购苹果传奇设计师 Jony Ive 公司 io,Altman:「最梦幻 AI 硬体」正在路上 ) 一个超过 50 页,逾万字的互动式报告,揭露了 OpenAI 从非营利研究实验室演变为营利巨头的全过程。近期,由两大非营利科技监督组织 ——Midas Project 与 Tech Oversight Project—— 联合释出了一份名为《OpenAI 档案》的深度调查报告。 该报告由 Midas Project 执行董事 Tyler Johnston 主导,历时近一年的公开资讯收集与一个月的集中撰写。报告被称为「迄今为止,针对 OpenAI 在公司治理实践、领导层诚信及组织文化方面,已记录在案的担忧的最全面汇编」。 通过梳理公司披露档案、法律诉讼、公开信及媒体报导等大量公开资料,这份超过一万字的互动式报告发现,OpenAI 正在系统性地、有预谋完成了从「为人类谋福祉」到「为投资者谋利润」的根本性转变,CEO 奥特曼存在长期、有据可查的言行不一、操纵资讯和规避监督的行为模式,且个人投资与公司业务的深度捆绑。OpenAI 在安全和透明度方面言行不一,其公开承诺与内部实践严重脱节。 报告分为四大主题,一是重组、二是执行长诚信、三是透明度和安全性、四是利益冲突。 其中,OpenAI 高管和董事会成员从公司成功中直接或间接获益的程度令人关注。其中包括对 CEO 奥特曼投资组合的分析,涉及 Retro Biosciences、Helion Energy、Reddit、Stripe 等多家与 OpenAI 存在合作关系的公司。 重组:一场精心策划的「使命背叛」 报告指出,OpenAI 正在系统性地、有预谋地拆除其创立时的核心道德与结构支柱,其行为与公开宣告存在严重矛盾,本质上是一场从「为人类谋福祉」到「为投资者谋利润」的根本性转变。 首先,报告揭示了 OpenAI 两大核心支柱 ——「利润上限」与「非营利监督」—— 的同步瓦解。 最初的「利润上限」(Capped-Profit)模式是其核心哲学,意在确保 AGI 创造的巨大财富能与全人类共享,防止财富过度集中。然而,这一承诺被逐步掏空:从表面上看似加强使命的利润倍数下调,到秘密引入「每年自动增长 20%」这一使其在功能上形同虚设的条款,再到最终计划完全移除上限,标志着财富共享理念的彻底终结。 与此同时,其监督机制也被巧妙地削弱。OpenAI 从一个由非营利组织完全控制的实体,转型为特拉华州的公益公司。法律义务从「使命优先」变成「平衡股东利益和公共利益」。报告指出,历史上「没有股东成功起诉以保护公共利益的先例」,这使得公益承诺在法律实践中几乎无法执行。这表明,PBC 的「公益」承诺在现实中可能沦为空壳,为追求利润最大化提供了巨大的法律掩护。 图片来源:openaifiles.org/ 网站 报告进一步驳斥了 OpenAI 以「行业竞争激烈」为由放弃承诺的官方说辞。通过引用公司早期的《章程》和内部邮件,报告证明 OpenAI 在创立之初就已充分预料并准备应对激烈的行业竞争。因此,用竞争作为背弃承诺的理由,是一种站不住脚的「修正主义历史」。这背后真正的动机,恰恰是投资者和公司高层都相信其巨大的盈利潜力,因此移除上限才变得至关重要。 CEO 诚信:CEO 行为模式引发信任危机 报告进一步指出,CEO 奥特曼存在长期、有据可查的言行不一、操纵资讯和规避监督的行为模式,以及将个人利益置于组织责任之上。 报告列举了多个奥特曼在重大问题上公开撒谎或误导的例项。例如: 在员工非贬低协议问题上,Altman 公开声称不知情「剥夺离职员工股权」条款,但档案显示他明确授权了此条款。 在参议院宣誓作证时,他声称没有 OpenAI 股权,但后来承认曾通过基金间接持有。 长期向董事会隐瞒其个人拥有 OpenAI 创业基金的事实。 前董事会成员 Helen Toner 直接指控 Altman 通过「隐瞒资讯、歪曲事实、甚至直接撒谎」来阻碍董事会履职。报告还显示,这种行为模式贯穿其职业生涯: 在 Loopt 时期,资深员工曾两次试图让董事会解雇他,理由是「欺骗性和混乱的」行为。 在 Y Combinator 期间,他因专注个人专案而玩忽职守,最终被创办人 Paul Graham「请走」。 最戏剧性的体现是,在被 OpenAI 董事会解雇后,他利用影响力反向操作,以「罢免开除他的董事会成员并安插自己盟友」作为回归条件,成功实现对监督体系的「反噬」。 运营与安全风险:安全承诺的系统性落空 报告揭示,OpenAI 在安全和透明度方面存在一种系统性的言行不一,其公开承诺与内部实践严重脱节。公司文化表现出一种「唯快不破」的倾向,为了追求商业利益和竞争优势,正在系统性地削弱、规避甚至惩罚内部的安全监督和异议。 报告揭示了 OpenAI 在安全和透明度方面的系统性言行不一。公司曾承诺将 20% 的计算资源投入「超级对齐」安全团队,但据前负责人 Jan Leike 透露,这笔资源从未被分配。在 GPT-4o 开发中,安全团队被要求在产品释出前「快速完成」测试,公司甚至在评估开始前就已计划好释出庆祝活动。 更严重的是,公司使用严苛的离职协议威胁离职员工,若批评公司将损失数百万美元股权。员工 Leopold Aschenbrenner 因向董事会提交国家安全风险备忘录而被解雇,公司明确告知解雇原因正是他「越级」报告安全问题。 报告还指出,OpenAI 在 2023 年发生骇客入侵、AI 技术细节被盗的严重安全事件,但在长达一年时间里未向当...