刚刚,OpenAI高层大地震:
联创John Schulman辞职跑路,联创&总裁Greg Brockman长期休假,产品副总裁Peter Deng也被曝离职。
John Schulman(约翰·舒曼),长年领导OpenAI强化学习团队,被誉为“ChatGPT架构师”。
也是他在Ilya Sustkever离开之后,临时接管了超级对齐团队。
现在他宣布“做了一个艰难的决定”,加入隔壁Anthropic,也就是Claude团队。
与此同时,OpenAI总裁Greg Brockman也宣布将休长假,直到年底。
OpenAI计划10月1日起在全球各地举办开发者日等活动,他也将缺席。
Brockman自述是在连续工作了9年之后第一次放松,但对年底之后的计划说的比较模糊,也有网友认为是出于保密协议。
在舒曼离职官宣20分钟后,奥特曼在回复中感谢了舒曼的贡献,以及回忆了两人2015年初次见面时的情景。
但截至目前,奥特曼没有对Brockman休假做任何回应。
奥特曼平常有打字句首字母和“i”不用大写字母的习惯,但每当重要同事选择离开时,他都会表现得更正式一些。
著名OpenAI内幕爆料账号苹果哥表示:现在领导层已经成了一个空壳,你们还是赶紧发布产品吧。
ChatGPT架构师离职
舒曼本科在加州理工学习物理,在UC伯克利短暂学习过神经科学,后来师从强化学习大牛Pieter Abbeel,完成计算机科学博士学位。
在他成为OpenAI联创时,博士还未毕业。
OpenAI是他在实习之外工作过的第一家也是唯一一家公司。
他的代表作、最高引论文PPO,也就是ChatGPT核心技术RLHF中选用的强化学习算法。
后来在从GPT-3.5、GPT-4到GPT-4o的一系列工作中都领导了对齐/后训练团队。
这次他自述的离职原因也是与此相关:
不过他也给足了OpenAI面子,补充到“不是因为OpenAI缺乏对安全对齐工作的支持而离开”,只是出于个人希望集中精力。
在ICML2023的演讲中,舒曼自述过个人接下来关注的研究方向之一:如何避免过度优化。
ChatGPT 中的一些令人讨厌的行为(例如过度道歉)是过度优化的结果。
RLHF很容易对狭窄的指标进行过度优化,例如模型可能学会了能获得奖励的捷径,但没有真正理解。
适当的对话任务训练需要推理、换位思考和知识,研究人员必须精心设计训练过程、奖励功能和数据集
奖励信号必须评估整个对话的质量,而不仅仅是个别反馈。
在今年五月份与播客主持人Dwarkesh Patel访谈时,舒曼也表示,算力应该更多从预训练向后训练转移。
OpenAI人才持续流失
由于在AI安全方面理念和奥特曼不合,OpenAI的人才发生了大量流失。
今年5月,超级对齐团队的两名负责人——首席科学家Ilya Sutskever和RLHF发明者之一Jan Leike,在同一天内相继离开OpenAI。
彼时离超级对齐团队的成立,过去还不到一年。
Jan Leike离开后更是连发十几条推文,对着OpenAI疯狂炮轰,控诉其没有兑现20%算力的承诺,并且对安全的重视程度远不及产品。
后来,Jan Leike选择加入了OpenAI的竞争对手Anthropic,继续进行超级对齐的研究。
在GPT-4项目上与Jan Leike共同领导对齐工作的Ryan Lowe,也已于3月底离开OpenAI。
还有超级对齐成员之一William Saunders,以及参与过GPT-4对抗性测试的Daniel Kokotajlo,也都从OpenAI离职。
更不必说隔壁Anthropic的创始人Dario Amodei和Daniela Amodei兄妹,也是OpenAI出身。
哥哥Dario离开前是OpenAI的研究副总裁,妹妹Daniela则是安全与策略部门副总监,走的时候还把GPT-3首席工程师Tom Brown等十几名员工一起带到了Anthropic。
导致他们选择出走创业的原因之一,就是OpenAI在安全问题尚未解决的情况下就直接发布了GPT-3,引发了他们的不满。
对安全的重视,加上创始人的背景,也让Anthropic成为了包括Jan Leike和这次离职的舒曼在内的OpenAI员工的主要去处之一。
OpenAI这边最近在安全工作上也有所动作——
7月末,OpenAI把安全部门高级主管Aleksander Madry调离了安全岗位,并给他重新分配了“AI推理”的工作。
但OpenAI告诉媒体,Madry到了新职位上之后,仍将致力于人工智能安全工作。
CEO奥特曼也是强调,OpenAI一直都很重视安全工作,并坚持了“给整个安全团队至少20%算力”的承诺。
但眼尖的网友很快发现,奥特曼玩了一波偷换概念,原来承诺的的是给超级对齐团队20%算力,被偷偷改成了全部安全团队。
所以,在奥特曼的推文之后,网友也是毫不留情地把这一背景信息添加了上去,并附上了当时OpenAI的官方链接。
emm……互联网还是有记忆的。
One More Thing
在内部大量人才流失的同时,OpenAI的“老仇人”马斯克这边也有新的动作——
马斯克刚刚再一次把OpenAI告上了法庭,一同被告的还有奥特曼以及总裁Brockman。
这次起诉的理由是,马斯克认为自己参与创立OpenAI之时受到了奥特曼和Brockman的“欺骗和敲诈勒索”。
马斯克称,自己当初参与并投资OpenAI就是因为相信了奥特曼的话,当时奥特曼承诺OpenAI是一个安全、开放的非营利组织。
但后来OpenAI成为了营利性组织,还把一部分股份卖给了微软,这让马斯克感到十分不满,认为自己遭到了背叛,痛斥奥特曼“背信弃义”。
马斯克的律师Marc Toberoff表示,此次诉讼和之前撤回的那起有很大差别,要求被告“对故意向马斯克和公众做出虚假陈述的行为负责”,并寻求“大规模追回他们的不义之财”。
同时,起诉书还要求撤销OpenAI对微软授予的许可。
总结
### 文章总结#### **OpenAI高层剧变**
1. **联创John Schulman离职**:
- John Schulman,被誉为“ChatGPT架构师”,领导了OpenAI强化学习团队多年,并临时接管了超级对齐团队。
- 他宣布加入Anthropic(Claude团队),自述离职原因为希望集中精力在个人研究方向上。
2. **总裁Greg Brockman休假**:
- Brockman宣布将长期休假到年底,将缺席原计划的开发者日等活动。
- 自述为连续工作9年后的首次放松,但对未来计划模糊,引发关于保密协议的猜测。
3. **产品副总裁Peter Deng离职**:
- Peter Deng的离职也被曝出,进一步加剧了OpenAI高层的变动。
#### **ChatGPT架构师的离职影响**
- **背景**:John Schulman在AI领域有深厚积累,其代表作PPO算法是ChatGPT核心技术RLHF中的重要部分。
- **离职原因**:提到避免过度优化,计划更专注于研究对话任务的训练和推理能力。
- **离职评价**:尽管给予OpenAI正面评价,但指出离职并非因公司缺乏支持,而是个人职业发展选择。
#### **OpenAI内部动荡持续**
- **早期离职潮**:包括首席科学家Ilya Sutskever、RLHF发明者Jan Leike等多名重要成员因安全理念不合离职。
- **人员流失影响**:这些成员的离职对OpenAI在AI安全和超级对齐方面的工作产生了显著影响,特别是Jan Leike和Ryan Lowe等核心成员的相继离开。
- **人才流向**:许多离职员工加入了Anthropic,该团队对AI安全的重视成为吸引人才的主要原因。
#### **管理层的回应与行动**
- **CEO奥特曼的回应**:在John Schulman离职后,奥特曼发表了感谢信并回忆了两人的关系,但对Greg Brockman休假未做评论。
- **安全团队调整**:尽管强调了对安全的重视,OpenAI调离了安全部门高级主管Aleksander Madry,并将他重新分配到AI推理工作,但宣称其仍将负责安全。
#### **外部压力增加**
- **马斯克的法律诉讼**:马斯克以欺骗和敲诈勒索为由再次起诉OpenAI及两位高层,指责其背离了成立时的非营利和安全承诺。
- **诉讼内容**:马斯克要求撤销OpenAI对微软的授权许可,并追回经济损失。
总结而言,OpenAI近期面临了高层变动、内部人才流失以及外部法律诉讼等一系列挑战,尤其是在AI安全和未来发展方向上,公司内部的分歧和变动尤为显著。