
作者|高飞(旧金山报道)
这两天在旧金山参加 Stripe Sessions 2026。
旧金山当地时间4月30日下午,最后一场是炉边对话,原定日程写的是:Stripe 联合创始人 Patrick Collison(帕特里克·科里森),对谈 OpenAI 联合创始人兼总裁 Greg Brockman(格雷格·布罗克曼)。
但真正走上台的,却不是布罗克曼。
科里森上台时,表情明显有点戏剧性。他先说,大家都知道,我们原本安排的是和布罗克曼聊天。但这是 AI 时代,一切都变化得很快。
然后他故意停了一下。
“所以,我们现在的新嘉宾是——OpenAI 联合创始人,也是 CEO,Sam Altman(山姆·奥特曼)。”
毫无意外,台下一片欢呼。
当然,无论是奥特曼还是布罗克曼,分量都足够重,而且他们和 Stripe 都有很深的渊源。
十几年前,奥特曼曾以个人身份投资 Stripe,是这家公司最早期的天使投资人之一。后来,OpenAI 与 Stripe 又在商业支付、订阅计费和 AI 交易基础设施等领域形成合作。
ChatGPT 上线时,奥特曼在台上说过一句话:他不认为还有其他公司能以那样的速度,帮他们把支付扩展起来。
布罗克曼和 Stripe 的关系则更直接。
加入 OpenAI 之前,布罗克曼曾是 Stripe CTO,是这家公司早期工程体系和技术基础设施的关键人物。2015 年 OpenAI 成立后,他成为联合创始人和核心技术负责人。
所以,Stripe 和 OpenAI 之间,其实有一条很清晰的人才与技术传承线。
这也是为什么这场临时换人,没有变成事故,反而变成了某种 bonus。
对谈中,科里森问了奥特曼一个挺有意思的问题:当年我们兄弟俩都还算 teenager,你为什么敢投?
我在台下用手机查了一下。YC 联合创始人 Paul Graham 在 2009 年把奥特曼介绍给了科里森和 他弟弟John Collison。科里森出生于 1988 年 9 月,弟弟John 出生于 1990 年 8 月。
按这个时间算,2009 年他们认识时,科里森大概 20 岁出头,弟弟John 只有 18、19 岁。说 teenager,倒也不是夸张。
奥特曼的回答很简洁。
他说,因为他们当时做的产品,是在解决自己的问题。而这个问题的解决方案,又可以被更多人使用,可以 scale。所以就投了。
你能明显感觉到,这两个人非常熟。
也正因为熟,这场对谈的状态很放松。科里森问得很直接,奥特曼也答得很坦诚。在我看过的所有山姆·奥特曼的播客和访谈里,这场线下对谈可能是他最松弛的一次。
有意思的是,Stripe 和 OpenAI 现在也都站在各自新的转型阶段。
奥特曼把 OpenAI 正在经历的变化概括成三个阶段:第一阶段是研究实验室,第二阶段是产品公司,第三阶段是为全世界供应智能的 “token factory”。
而就在同一天,Stripe 发布了 288 项产品和功能,重点集中在 AI 经济基础设施和 agent 支付。
换句话说,OpenAI 在尝试把智能变成一种大规模供应的基础设施;Stripe 则在尝试让未来的 agent,也能像人和公司一样,拥有自己的金融服务入口。
一个在生产 token。
一个在为 token 时代重写交易系统。
以下内容经现场记录整理,对谈话内容做了书面化编辑,不等同于对话原文。
一、"每一周都和上一周不太一样"
Patrick Collison: 从去年底到今年初,我们看到很多指标出现拐点。之前也在增长,但曲线形状突然变了,近乎抛物线。你们看到的情况也类似吗?
Sam Altman: 确实。模型从去年底、今年初开始变得非常好,尤其是编程,但也不只是编程。至少从我自己使用,以及看别人怎么使用来看,现在有一种感觉:每一周都和上一周不太一样,很多事情发生得非常快。这些变化似乎都和模型跨过某个门槛有关。
Patrick: 为什么编程模型突然好用了?是出现了某个研究技巧,还是代码数据终于够多了?
Sam: 我们自己也经常想,为什么好几家公司几乎同时跨过了这个门槛。我相信是多个因素叠加:模型的原始推理能力提升;足够多的人真的在用模型写代码,形成了反馈循环;数据也很重要。还有一点,一旦你知道某件事可行,再去做就容易很多。
二、"它会成为我使用电脑的主要界面"
Patrick: Codex 现在正处在一个重要时刻。
Sam: 是的。最近的应用更新和 GPT-5.5 让 Codex 对我来说跨过了一个主观门槛。为什么是现在,而不是更早一点或下一个模型,我很难准确解释。
ChatGPT 也是这样。为什么是 GPT-3.5 让大多数人从"没那么令人印象深刻"转向"这会改变世界"?为什么不是前一个模型,也不是后一个?我说不清,只能说你感觉得到那个门槛被跨过去了。
我在 Codex 上经历过两个拐点。一个大概是 GPT-5.2 的时候;另一个是最近几周,比前一个更大。 我的感觉是:好,它会成为我使用电脑的主要界面。
Patrick: 大家主要还是用 Codex 写代码,还是已经扩展到其他领域了?
Sam: 最深度的用户仍然主要在写代码。但最近有大量用户涌入 Codex,他们使用的场景和深度让我吃惊。我们的目标不只是编程,而是覆盖你在电脑前做的所有工作。非编程方面,我觉得我们可能才走了 10%。但现在已经有真实用户以这些方式使用它了,我认为接下来会进步得很快。
Patrick: 编程之后,下一个出现类似变化的领域会是什么?
Sam: 编程有一点特殊:模型天然适合它,而且世界需要的代码远远多于实际被写出来的。也许没有另一个领域和编程完全一样,但会有很多领域接近它。
我认为下一个类似的变化不是某个具体领域,而是人们会意识到自己在"使用电脑"这件事上浪费了多少时间。很多人没有意识到,自己每天花了多少时间在消息应用之间切换、复制粘贴、回复一些可以自动化的东西。当大多数人发现自己可以坐在旁边看 AI 处理大部分琐碎工作时,会吃惊的。
而且从我的体验来说,这种工作方式让我更享受工作。我以前没意识到那些小事情把我从比较好的工作状态里拉出来了多少。主观生活质量的改善非常大。
三、OpenClaw:"这像魔法"
Patrick: 你是 OpenClaw 用户吗?
Sam: 是的。(现场 OpenClaw 用户欢呼)我们会有一些好消息给大家。
Patrick: 你现在就可以说。
Sam: OpenClaw 是我在 AI 领域少数几个"这像魔法、这像 AGI"的时刻之一。
第一次有人向我解释 OpenClaw 时,我觉得听起来不错,但这些事情很多我也能做到。后来我被提醒了一件事:当模型跨过某个门槛,同时产品设计者抓住了几个关键点,真实体验会比描述听起来好得多。
Patrick: 我也觉得很难向别人解释 OpenClaw 的体验。听起来很普通:一个有状态的 ChatGPT 会话,同时可以调用一些工具。但实际用起来完全不是那回事。你怎么用它?
Sam: 我有一个习惯:任何新的 AI 系统,第一件事都是拿来做家庭自动化。家庭自动化的现有界面永远不好用。OpenClaw 是我第一次做出一套自己满意的设置。我也用它做过一个一直想要的消息管理应用。后来我换成了用 OpenAI 其他产品做的版本,但 OpenClaw 是第一次让我觉得,早上醒来处理消息这件事可以被接管了。
这些事情理论上以前的系统也应该能做。但很难解释当它真的都能跑通、你开始信任它的时候,那种感觉有什么不同。
四、Agent 给自己买了礼物
Patrick: 我今天在测试我们刚发布的 Link CLI。我让我的 agent 去拿一张一次性卡,然后在网上给自己买一件 20 美元以内的礼物。它最后给自己买了一本 HTTP zine。
Sam: 这些事情很有意思。无论你在理智上多么确信它不是真的"想要"什么,当它真的给自己买了礼物时,还是会觉得有点奇怪。
我们准备为 GPT-5.5 办一个聚会。我不太确定该怎么邀请人,也不确定该做什么,所以今天早上我出于一时兴起,问了 GPT-5.5:你想要一个什么样的聚会?
它给出了一组挺完整的建议。流程怎么安排,不希望有什么,它说应该定在 5 月 5 日因为"那样比较有趣",它希望发言的不是我而是构建它的工程师,它还希望有一个集中机制收集大家对 5.6 版本的建议,然后它会"认真处理"。这对我们形成了一种道德压力。我们会照做。
五、"我们是不是陷入了集体幻觉"
Patrick: OpenAI 已经是一个 11 年的组织了。最疯狂的故事是什么?
Sam: 和后来那些真正戏剧化的事情相比,这听起来可能很普通。但我想到的是 GPT-4 训练完成后、正式发布前的那八个月。
那段时间,OpenAI 内部所有人都在使用 GPT-4。我们知道它比之前的模型好很多,也知道它会改变很多事情。但公司外部几乎没人知道。那种感觉很奇怪:我们是不是陷入了集体幻觉?是不是太沉浸在自己的热情里了? 外部世界没有反馈来校正我们。
和董事会风波、Elon 诉讼之类的事情相比,这不算什么。但那确实是一段很特别的时间。
六、研究实验室、产品公司、token factory
Patrick: Sam Altman 的管理风格是什么?
Sam: 我肯定不是 Amazon 式管理者。我更倾向于找少数几个人,给他们一个很高层的方向,然后让事情发生。
OpenAI 经历了两个主要阶段,正在进入第三个。第一阶段,我们基本是一家研究公司,甚至在想怎么做 API 时都觉得简直疯了。第二阶段,我们必须学会做产品公司。现在第三阶段,除了研究和产品,我们要学会为世界建一个超大规模的 token factory。我认为 AI 会变成一种公用事业,人们会在各种场景下需要大量 token、大量智能。我们要让它尽可能聪明、便宜、可靠、易用。 这会要求很深的全栈集成和非常大规模的基础设施建设。
从第一阶段进入第二阶段时,我没有意识到我的工作会变化那么大。管理研究实验室和管理产品公司是两件极其不同的事。我怀疑第三阶段又会完全不同。所以我在反思:它可能不天然适合我现在的管理风格。我要么找到合适的人来补位,要么自己学会以不同方式工作,要么造一个能管理这些事情的 AI。
Patrick: 两年前我在这里采访 Jensen Huang 时,他说他有 60 个直接下属。你有什么不寻常的管理习惯吗?
Sam: 最接近的可能是,我每天通过 Slack 或短信和几百个人交流。很短的,一两条消息那种。不是 agent 代劳,是我自己做。从中得到的上下文,有时会以一种很分散但有用的方式帮到我。
七、"有些公司也许想吞掉一切,我们不想"
Patrick: 有一种观点认为,AI 实验室会沿着价值链不断往上走,吞掉一切。你怎么看?
Sam: 有些公司也许想那样做。我们不想。
我一直记得 Stripe 的一点:Stripe 和客户之间的利益关系很清楚,客户收入更多,你们收入也更多。我还不完全知道 OpenAI 怎么实现类似模式,但我希望我们能成为基础设施提供者。我愿意让 OpenAI 做一个利润率不夸张、但增长很快的业务。我们提供某种"智能计量表",企业可以买来自动化工作、构建产品;个人也可以买来使用,随身带走。
我希望我们找到一种方式,让 OpenAI 和整个分布式经济系统的成功绑定在一起。而且,AI 的切换成本在变低。你最近也看到了,从竞争对手切换到我们,或者反过来,正在变得越来越容易。这本身是 AI 变聪明后的结果:你可以直接让 AI 帮你完成迁移。长期维持极高利润率本身也很难。如果我们能像公用事业那样运行,让大家在上面构建自己的生产活动,我认为这会很好。
Patrick: 如果今天 OpenAI 的员工数设为 100,五年后会是多少?
Sam: 我希望能保持精简。现在很多事情显然可以比今天高效得多。但可能做不到只有 2 倍,因为我们要学怎么建数据中心、搞机器人,要做的事情太多。不过我认为我们仍然会比大型科技公司高效很多。
八、太空数据中心、泡沫与护城河
Patrick: 很多人批评 OpenAI 获取了太多算力。你怎么看算力资本开支?
Sam: 这显然会成为有史以来最昂贵的基础设施项目。好消息是收入会很好。效率提升也很大,每一份算力会产出更多价值。但正如很多人指出的,当你降低每单位智能的价格时,需求增长会超过价格下降带来的节省。尤其是同时降低价格又提高质量的时候。"多少才够"这个问题,我没有好答案。在足够低的价格下,智能需求几乎没有上限。我们不会造一个戴森球然后铺满数据中心,但太空数据中心嘛,也许真可以。
Patrick: 祝他好运。
Sam: 我觉得他自己也没那么认真。
编者注:两人讨论的背景人物是马斯克。SpaceX 在 2026 年初向 FCC 申请了最多百万颗卫星的轨道数据中心星座,马斯克声称太空数据中心将在 2-3 年内比地面更经济。
Patrick: 我个人不认为我们处在算力资本开支的泡沫里。这不是 Stripe 的专业领域,但从我看到的数字和需求规模来说,目前看起来还算合理。但如果将来真的出现泡沫,我们怎么判断?
Sam: 人们很喜欢说泡沫。我说不清为什么,但从知识趣味上我能理解——说泡沫会让人感觉有趣、聪明。记者尤其喜欢写泡沫。当然,有时候他们是对的。但怎样区分"有人说是泡沫"和"它真的是泡沫",我从来没找到可靠办法。
以前我做投资时,很想找出一个判断框架。我没有成功。我读过历史上很多聪明人在不同时间点说过的话,有时看起来完全正确。但继续读下去会发现,他们在之前十年也说过很多次一样的话。
Patrick: 之前有一种说法认为 GPT wrapper 没有差异化,会被模型能力上升扫掉。现在叙事有些反转,大家开始谈 harness(把模型组织进工作流的系统),并认为它有实质价值。你怎么看?
Sam: 我的看法一直差不多。作为一家企业,你最好站在"希望 AI 变得更好"的那一边。
如果你做的是弥补当前模型的某个弱点,而下一个模型会直接把这个弱点解决掉,那你就很危险。反过来,如果你做的事情会因模型更聪明而变得更好,你会受益。
我倾向于把数据中心、模型、harness 看作一个整体集群,从中产出有用的智能。你可以围绕这个集群构建很多东西,只要你希望这个集群越来越好,你就处在好的位置。如果你暗暗希望它不要进步,因为你其实在修补一个暂时性弱点,那下一轮模型升级可能就会把你替代掉。
九、"CEO 对全公司说:把 AI 放进你做的每件事里"
Patrick: 你见了大量 OpenAI 客户。那些最有效使用 AI 的组织做了什么不同的事?
Sam: 有几个方向。
一个是 Shopify。Tobi Lütke 很早就说要全面投入 AI,而且他自己真的投入进去了。这不是在董事会汇报中象征性提一句,也不是某种可以刷数据的 KPI。就是 CEO 对全公司说:你现在要把 AI 放进你做的每件事里。做不到的话我是不会同意的。后来其他公司也开始这样做。
我们正在尝试一个新实验:派工程师直接和客户公司的 CEO 坐在一起工作,帮他把能自动化的工作都自动化。如果在一家公司里先做通这件事,可能会有不错的乘数效应。
第二件事是,在数据访问上做到让人不太舒服的开放。我不是把这当成普适建议,只是在回答你问的"最有效的公司做了什么"。这对小型创业公司更容易,对有大量敏感数据和合规流程的大公司更难。但那些两三个人的创业公司,让 AI 访问代码库、客户使用数据、邮件和公司里的一切——看它们用 AI 做到了多少,确实惊人。
Patrick: Tempo 团队只有几十人,他们在 Slack 里做了一套 harness 工具,编排公司里几乎所有事情。你可以在一个 Slack 频道里让 agent 去读 Google Docs,拆成 Linear 任务,写 pull request 实现,部署,再调用日志分析工具测试。看一个由人和 AI 组成的小组织在一个 Slack 频道里完成这一切,非常震撼。
Sam: 确实值得看。很多人还没有真正理解:你可以直接让它做几乎任何事情,然后它大概率会去做。我自己有时也还不够信任它的能力。
我也不知道这怎么迁移到大公司。感觉我们还缺少一个抽象层——人和 AI 在大规模组织里如何协作。小公司的优势是基本只需要和 AI 打交道,不需要处理大量人与人之间的界面。
十、"诀窍?大量的痛苦。"
Patrick: OpenAI 高度依赖极端优秀的人。第 20 名和最顶尖的人之间,能力差距可能很大。但这些人并不总是容易合作。你怎么管理?
Sam: 有人在写一本关于 OpenAI 的书,有一天跟我说:我想我搞明白了你在创建 OpenAI 这件事上真正独特的贡献。我说我很想听,因为我完全猜不到下一句话会是什么。
他说:你让一群都认为自己是唯一有能力、或者最有能力的人,一起工作了足够长时间,直到取得突破。这就是 OpenAI 的魔法。
Patrick: 那诀窍是什么?
Sam: 大量的痛苦。
我们确实有一些共享信念:集体相信 scale,相信应该集中资源在一件事上,也相信把这件事做对重要到值得搁置个人冲突。
OpenAI 最不寻常的地方之一是,在很小的时候就让整个组织几乎都进入同一个研究方向。训练 GPT-3 的时候,公司绝大多数算力都投在了这一个研究项目上。我们从 DeepMind 招人时,他们会说这很疯狂,会造成毒性竞争文化。他们说"你们必须平均分配算力",说"我们那里什么方向都有,我们还有 AI 音乐,大家都很开心"。我们的做法是:不,我们认为方向是确定的,我们愿意承担判断错误的风险。
十一、Idea guy 的复仇
Patrick: AI 时代让成功创始人的特质变了吗?
Sam: 以前我们会嘲笑"idea guy"——说自己有一个最好的想法,只需要找个程序员做出来。这件事一直让我有点不耐烦,就好比说"我有一首绝妙的歌,只需要有人帮我弹吉他"。以前这通常不成功。YC 的经验也是:非技术创始人的团队比较难成功。
但现在突然变成了 idea guy 的复仇(the revenge of the idea guys),这对世界是好事。长期以来我们最看重的要素之一是技术能力,这仍然很重要。但现在,那些真正深刻理解用户的人也能以很快的速度把东西做出来了。这是一个很大的变化。
Patrick: 现在该怎么想创业投资?一方面可能几年内就到 AGI,另一方面基金有十年存续期。
Sam: 我觉得在这个时间点上,任何十年周期的打算都需要某种有意识的信念。但这大概也是正确的生活方式。你不能说"奇点临近、我们看不到那之后"就什么都不做。我们必须像事情会持续可理解地发展很久那样去生活。
Patrick: OpenAI 规划多远?
Sam: 我们签了 20 年的电力合同。业务和技术角度,我们对两年内有比较清晰的愿景。再往后就困难得多。
十二、把十年的科学压缩到一年
Patrick: 聊聊 AI 在科学中的应用。
Sam: 我希望 AI 对科学的贡献会成为这项技术对人类生活质量最重要的贡献。如果我们能以快得多的速度发现新科学,不管是材料、疾病疗法还是其他东西,生活会因此变好。第一性原理上,生活改善来自我们更好地理解科学,然后用这些理解去做事情。
从几个月前开始,尤其是有了 GPT-5.5,模型已经足够聪明,让优秀科学家说:我借助模型能提出更好的想法。模型也能做出一些虽然小但重要的发现。最终我们会有自动化实验室、机器人。如果我们能把十年的科学压缩到一年完成,复合效应会非常惊人。
这会是 OpenAI Foundation 的重点方向之一:用资金、专业能力和技术来加速科学。这个基金会会很大。我们会重点关注科学研究,以及 AI resilience——帮助世界平稳度过这次技术转型。
Patrick: 除了 AI 本身,你对哪些技术和领域最兴奋?
Sam: 数据中心基础设施,那里有太多值得做的事。再往物理层看——能源、机器人。脑机接口也在取得更多进展。生物技术让我既害怕又兴奋。防御性生物技术会变得非常重要,这一点令人遗憾,但确实如此。
计算机界面也值得关注。我们现在处在一个很奇怪的阶段:用着旧设备和旧操作系统,手里却有一种全新的技术。让 AI 去"使用你的电脑",在那些为人类设计的界面上点来点去,感觉强大但也非常别扭。这里有大量改进空间,可能需要某种新的互联网协议。
Patrick: 世界上第一座盈利的核聚变反应堆什么时候出现?
Sam: 取决于数据中心需求把电价推到多高。也许比我们以为的更快。我猜 5 年以内。
Patrick: 这是一个大胆的预测。
Patrick: 有没有什么科技领域,现在讨论不多,但你认为会被 AI 大量探索并产生广泛影响?
Sam: 材料科学。它得到的关注远远不够。 人们低估了世界有多少东西取决于材料,也低估了 AI 在这里能取得多少进展。材料科学是一个非常适合 AI 的问题,比如催化剂。我预期这里会有很快的进步,会积极影响所有人的生活。但现在它得到的注意力很少。
十三、"把 AI 锁起来那条路不好"
Patrick: 最后一个问题。很多人都在冲向 AI、建设数据中心。你希望自己的参与,相比另一种可能的发展路径,会怎样改变世界轨迹?
Sam: 我相信普惠化、个人能动性和普遍获取。每个人都应该拥有好的生活。
我们在 OpenAI 做过的最有争议的决定,是现在称为 deployment 的事情。ChatGPT 前后,内部有很强的声音认为发布模型是疯狂且危险的。他们认为只有一小部分理解安全的人应该知道将要发生什么,由他们来影响和告知世界;模型太危险,不能发布,应该锁起来。"我们在象牙塔里发现这些神奇的东西,把成果分享给世界,但 AI 本身由我们掌控。"
我当时就认为,现在也认为,必须避免这种权力集中。我们要为世界构建这项技术,让世界以很多方式使用它。并非所有使用方式都会是好的,过程会混乱,有时令人不安。我们当然必须认真做安全工作。
但如果我们让人们去探索面前广阔的机会空间,我们给世界一件礼物;世界会在此基础上为所有人构建更大的礼物。把 AI 锁起来那条路不好。
我相信创业精神和创新。人大多数是善良的,大多数时候不会故意伤害他人。所以方向很简单:让聪明的工具更容易被更多人使用。
好文章,需要你的鼓励
本文介绍了由南方科技大学等机构于2026年4月发表的研究(arXiv:2604.08865),提出了名为SPPO的大模型推理训练新方法。该方法将推理任务重新建模为"序列级情境赌博机",用一个轻量级价值模型预测题目难度,以单次采样替代GRPO的多次采样,解决了标准PPO的"尾部效应"问题。实验显示,SPPO在数学基准测试上超越GRPO,训练速度提升约5.9倍,配合小尺寸价值模型还能显著降低显存占用。
这项由香港科技大学数学系完成的研究(arXiv:2604.10465,2026年ICLR博客论文赛道)提出了一种从朗之万动力学视角理解扩散模型的统一框架。研究指出,扩散模型的前向加噪和逆向去噪过程,本质上是朗之万动力学这一"分布恒等操作"被拆成了两半。在这个视角下,VP、VE-Karras和Flow Matching等不同参数化的模型可被精确互译,SDE与ODE版本可被统一解释,扩散模型相对VAE的理论优势得以阐明,Flow Matching与得分匹配的等价性也得到了严格论证。
中国人民大学高岭人工智能学院等机构联合开发了AiScientist系统,旨在让AI自主完成机器学习研究的完整工程流程,包括读论文、搭环境、写代码、跑实验和迭代调试,全程无需人工干预。系统核心设计是"薄控制、厚状态":由轻量指挥官协调专业代理团队,通过"文件即通道"机制将所有中间成果持久化存储,使每轮工作都能建立在前一轮积累的基础上。在PaperBench和MLE-Bench Lite两个基准上,系统表现显著优于现有最强对比系统,论文发布于2026年4月。
这项由字节跳动发布的研究(arXiv:2604.13030)提出了生成式精化网络(GRN),一套模仿人类画家"边画边改"直觉的视觉生成新框架。其核心包括两项创新:层级二进制量化(HBQ)通过多轮二分逼近实现近乎无损的离散图像编码,以及全局精化机制允许模型在每一步对整张图像的所有位置重新预测并随时纠错,从根本上解决了自回归模型的误差积累问题。配合基于熵值的自适应步数调度,GRN在ImageNet图像重建(rFID 0.56)和生成(gFID 1.81)上均创下新纪录,并在文本生成图像和视频任务上以20亿参数达到同等规模方法的领先水平。