OpenAI 的「撒谎门」背后:一场制度性失败的经典范本

撰文:Web 4 研究中心

最大的哲学问题不是"能否信任某人",而是"如何设计一个让信任变得多余的制度"。否则,我们就是在用 19 世纪的治理架构,应对一场 21 世纪最强大的权力游戏。

01 一份震动硅谷的调查报道

2026 年 4 月 6 日,《纽约客》发表了一篇历时 18 个月完成的深度调查报道,揭露了 OpenAI 内部一段至今仍让许多知情人士心有余悸的往事。

这份报道的核心素材,是 OpenAI 前首席科学家Ilya Sutskever在 2023 年秋天汇编的一份长达七十页的内部备忘录,以及Anthropic联合创始人 Dario Amodei 保留的超过两百页私人笔记。报道刊出后,所有证据指向同一个结论:OpenAI 的掌舵者Sam Altman,存在"一贯撒谎"的行为模式。

这不是一条普通的科技八卦。这是关于人类历史上最强大的技术公司之一,其最高管理者是否值得被信任的系统性质疑。

02 这不是 Altman 一个人的问题

如果你只从这个角度理解这件事,那你就错过了真正重要的问题。

主流媒体在追问:Altman 值得被信任吗?

但真正值得问的问题是:当一项足以改变人类文明的技术,被托付给一套"靠自觉"的制度设计时,危机不是意外,而是必然。

我们给这种现象起了个名字:AI 治理的结构性失灵。

这不是 Altman 一个人的问题。这是整个 AI 行业的通病。

信任,是 AI 领域出现频率最高的词汇之一。几乎每一家 AI 公司都会告诉你:信任我们,我们以安全为先,信任我们的技术会造福人类。但《纽约客》的调查揭示了一个残酷的事实:OpenAI 从未建立任何让信任变得多余的制度结构。

这个机构的核心决策,由一个人做出,或至多由几个人做出。没有外部制衡。没有强制性的透明机制。承诺是工具,不是约束。

加缪在《西西弗斯神话》中写道:"判断人生是否值得活下去,等价于回答哲学的根本问题。"同样的逻辑适用于 AI 领域:当技术足以改变文明,而制度约束如此脆弱时,我们如何建立一套不需要依赖个人诚信的系统?

03 被背叛的承诺清单

《纽约客》的调查报道,列出了一份完整的"承诺背叛清单"。

第一项是 2019 年的微软谈判。当时 OpenAI 正从非营利组织转型为"有上限利润"实体,Anthropic 联合创始人Dario Amodei在谈判中提出了核心安全条款"合并与协助"——即若有其他公司在安全性上更接近 AGI,OpenAI 需停止竞争并并入对方。这是他参与谈判的底线。合同签署后,Amodei 发现微软拥有该合并的否决权,条款形同虚设。当他向 Altman 当面核实时,Altman 起初否认该条款存在,直到 Amodei 请同事当场佐证,Altman 才承认,并辩称"不记得"。Amodei 在私人笔记中写道:“宪章的 80%被背叛了。”

第二项是 2023 年的算力承诺。OpenAI 曾高调宣布成立"超级对齐团队",承诺将公司 20%的算力投入其中。但内部人士透露,该团队实际拿到的算力只有 1%到 2%,而且用的是最老旧、最差的芯片。当负责人 Jan Leike 抗议时,高管的回复冷酷无情:"这个承诺从来就不现实。“注意这里的选择性记忆:承诺做 20%,实际给 1%-2%,然后宣称"承诺不现实”。不是执行偏差,是系统性遗忘。

这不是诚信问题。这是制度失效的必然表现。当权力集中在一个人手中,而这个人对承诺的约束力有着本能的弱化倾向时,承诺一定会系统性地被遗忘、被重新定义、被合理化。这不是 Altman 一个人的缺陷,这是任何中心化权力结构的共同特征。

04 为什么吹哨人总是失败

Ilya Sutskever 在提交给董事会的备忘录中写过一段话,大意是:任何致力于构建可能改变文明的技术的人,将承担前所未有的责任,但最终处于这些位置的人,往往是对权力感兴趣的人。

这里有一个深刻的悖论:最需要被约束的人,往往是那些最渴望获得权力的人。而现有的制度设计,对这个悖论毫无防备。

当 Ilya 决定从内部发出警告时,他没有向外部监管机构举报,因为 AI 行业几乎没有外部监管;他也没有组织员工集体行动,因为他是一个科学家,不是活动家。他的全部筹码,是一份文件,以及董事会中可能存在的是非之心。

结果我们都知道了:2023 年 11 月,董事会的确开除了 Altman,但五天之后,在资本、舆论和员工利益的三重压力下,董事会彻底瓦解,Altman 王者归来,而试图吹哨的 Ilya 被踢出权力核心。

这不只是一个"Altman 太强大"的故事。这是一个关于制度设计的故事:在一个权力高度集中的组织内部,吹哨机制的失效是结构性的,不是偶然的。理由很简单——吹哨人的筹码,是与雇主共谋的声誉和职业前景。一旦组织选择否认、拖延和边缘化,个人几乎无法抵抗。中心化结构的本质,就是让外部声音难以进入、内部声音难以放大的系统。

同样的故事,也发生在 Dario Amodei 身上。当他发现无法从内部改变 OpenAI 的安全文化时,他选择了另一条路:离开,创办 Anthropic,用自己的机构实践自己的价值观。这是一种光荣的撤退,但不是系统的胜利——因为这依赖于创始人的个人信念,而不依赖于任何制度保障。

AI 治理的核心问题,不是"如何培养更多有良知的 AI 领袖",而是"如何设计一套即使领袖缺乏良知也能正常运转的制度"。

05 区块链不是万能药,但是缺失的那块拼图

我在这里提出一个也许会让区块链圈外读者感到意外的判断:区块链的核心价值,不是发币,不是 Web 3 投机,而是一种治理技术的范式创新——信任外部化。

信任外部化是什么意思?传统制度依赖的是"信任某个机构或某个人"。区块链的解决思路完全不同:把信任从人转移到规则和代码上。不依赖可信的第三方,而是依赖透明的规则和可验证的证明。

AI 治理的缺陷,恰恰在于它完全缺乏这种外部化的信任机制。OpenAI 的承诺,由 OpenAI 自己来评判执行情况。这不是监管,这是自我评分。外部世界无法独立验证他们是否真的把 20%的算力用在了安全研究上,无法独立核实他们的模型发布流程是否真的经过了安全委员会的审批。透明度是一种可选项,而不是一种结构性要求。

区块链提供了一种可能的解决路径。不是说把 AI 模型上链就能解决问题——技术解决不了制度问题,而是说,透明和可验证的记录机制,可以让 AI 系统的行为更加透明、可审计。例如,一个基于区块链的 AI 决策日志,可以让每一次关键模型更新、每一次算力分配决策,都被记录在链上且不可篡改。这不会让 AI 系统变得完美,但至少让"系统性遗忘承诺"变得更难。

当然,这只是一个方向,不是银弹。技术本身不能替代治理。但在这个 AI 治理几乎一片空白的时代,任何能够让权力更透明、制衡更结构化的方案,都值得被认真讨论。

06 一个更深的拷问

OpenAI 危机的真正教训,不在于 Altman 是个怎样的人。

而在于:当一项可能决定人类文明走向的技术,落入了一个"靠自觉"的制度框架中时,风险不是来自技术的失控,而是来自制度的失灵。

人类历史上,每一次重大技术革命,都伴随着治理模式的迭代。核能带来了国际原子能机构和核不扩散体系。互联网带来了数据保护和网络安全法规。每一项足以改变权力结构的技术,都迫使人类建立新的制度框架来管理它。

AGI,是第一项人类尚未为其建立有效治理框架就可能改变文明的技术。这个框架不能依赖于任何一个创始人的个人品德,不能依赖于任何一家公司的自我承诺。它必须是一套结构性的、制衡性的、不依赖于任何人自觉性的制度体系。

而我们目前还没有。

关于 Ilya Sutskever 的那份七十页备忘录,《纽约客》的调查报道还原了其中的核心内容:Ilya 向董事会明确表达了他的判断——他认为 Altman 不应该成为掌握 AGI 按钮的人。

这份文件,构成了 2023 年那场震惊全球的 OpenAI"宫斗事件"的导火索。董事会的确据此做出了开除决定。但随后的五天里,整个行业的权力结构做出了它的选择。

这不是一个关于好人战胜坏人、或者坏人战胜好人的故事。这是一个关于制度的故事。在一个好的制度下,Altman 的某些行为会受到制约;在一个失灵的制度下,即使是最善意的吹哨人,也会被权力反噬。

人类正在进入一个 AGI 可能改变文明的时代。而我们用以管理这个时代的制度,还停留在 19 世纪。

这不是任何一个人的失败。这是一套制度设计的经典失败案例。

而真正的教训不是"不要相信 Altman"——而是要建立一套让任何人都可以被质疑、都被制衡、都无法脱离透明约束的制度。

信任是必要的。但在 AI 时代,信任远远不够。我们需要的,是让信任变得多余的那套制度。

(本文综合自《纽约客》2026 年 4 月 6 日调查报道、OpenAI 官方声明及公开资料整理。数据截至 2026 年 4 月。)

此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论