全网最干最硬的OpenAI风波一周回顾来了(最有意思的是关于技术突破的后半部分),别看二流自媒体反刍简中信息了,欢迎大家点赞转发~
首先,董事会为什么开除Sam Altman(11.17)目前还是个迷,地球上知道具体原因的可能也就十几个人,所以没有官方结论(马斯克在X上问了Ilya好几次都没回复),但基于一些公开的事实可以拼凑大概的故事线,我简单总结一下:
OpenAI内部的两派就是加速派和减速派,或者说e/acc(有效加速主义)和EA(有效利他主义)两派,分歧在主要【资源分配/产研推进节奏】和【Alignment/安全】上。这里主要是两部分:
1)核心成员理念不同:Sam的主要侧重是融钱/搞关系做PR/管理(OpenAI的从2020年底150人左右增长到现在的770人),走的是硅谷创业公司大干快上的增长模式,他大概率对AI的理解和进化速度和Ilya的认知没有对齐(可能也没几个人有水平能和Ilya在AI的认知上对齐:),导致了理念不合。Ilya是首席科学家,过往记录证明他是世界上最懂AI的人之一,从AlexNet,Sequence to Sequence,TensorFlow,AlphaGo,再到坚持GPT的路线大力出奇迹,10年以来他一直在深度学习的潮头,如果你看过他的一些采访和言论,他的思路非常清晰/坚定,在一些近期的公开露面中明显透露出对AI安全的担忧,所以Ilya有拉闸的倾向并不奇怪。 但是这里讨论他两谁更重要或者站队没有意义,两人都是核心,分工不同而已。
2)目前内部资源的冲突:Ilya在今年7月5日,官宣成立了Superalignment(超级对齐)团队,声称整个OpenAI 20%的计算能力会用于解决强人工智能的安全问题。11月14日,OpenAI暂停新的ChatGPT会员注册,表明其实内部的资源依然无法满足快速增长。
简单总结OpenAI内部分裂的原因:
1)治理结构特殊,董事会这个结构本身无人制约,权力过大
2)人数减少权力集中,比较有经验的外部董事由于利益冲突逐渐离开,比如马斯克,Reid Hoffman(Linkedin/Greylock创始人),董事会的人数由21年的10个人下降到23年的6个人,导致董事会权力不稳定
3)在任董事经验不足,3个独立董事对OpenAI的实际运营情况并不了解,而且偏向监管/减速派,Ilya虽然研究能力嘎嘎硬但是没搞过公司治理,分裂后董事会各种迷之操作也证明水平欠缺,对内没有解释清楚安抚人心,对外竟然去找Anthropic寻求合并
4)OpenAI的技术进步导致模型能力好得超乎想象,成为董事会分裂的催化剂(这其实是最值得说的部分)
现在Sam又回到OpenAI,核心团队还和原来一样,其实并不意外,1)Sam,Greg,Ilya从2015年就因为志同道合开始一起工作了,有一定的感情基础,Ilya甚至是Greg婚礼的主持人。2)Ilya并不追求权力斗争,只是关于AI的发展有自己的看法,3)Ilya随后站队Sam和超过95%的OpenAI员工签名要求董事会辞职,被董事会突然塞进来当CEO的前Twitch CEO开会都没人去,非常不得人心,董事会实际没法收拾烂摊子,4)微软作为金主爸爸和投资人给董事会施加的压力要求Sam回归
上面的说的分裂的前三点原因并不鲜见,完全可以理解,围绕公司治理和内部的斗争分裂的问题在硅谷或者任何商业发达的地方都一大堆,嚼来嚼去没啥意思。此外OpenAI自己从2015年开始也经历过两次分裂了,1)2018年,马斯克不满公司进展想要接管但被拒绝,于是退出董事会停止资金支持(要知道OpenAI这个局根本就是他组起来的),2)2020年,快一半的GPT-3和alignment团队出走OpenAI创立Anthropic,原因就是对于AI安全性/可靠性问题和OpenAI理念不同。
理念斗争其实也没什么意思,太阳底下没什么新鲜事。事情的关键是,Ilya投票开除Sam是一个非常非常激进的举动,只能猜测他有非常特别的原因但处于某种原因无法公开,大家都在半猜半调侃,Ilya到底看见了什么?所以,真正有意思的是,OpenAI内部的技术进展到底到了什么程度?(从5000年前以文字诞生为标志的人类文明开始到现在,还有比这更有意思的八卦吗??:)我们先从非官方的信息说起:
X上有一个匿名账号(
@apples_jimmy
)一直在爆料OpenAI的内幕,迄今为止准确度相当高。以下是他在2023年发布的一些内容:
3.4,GPT-4发布一周多前,确准爆料了发布日期是3.14
4.3,声称AGI将会在2025年实现
4.23,爆料了OpenAI下一代多模态大模型的代号“Gobi”(The information这些媒体9.19才开始报道)
9.3,爆料OpenAI的下一代多模态大模型会抢谷歌Gemini的风头,并暗示2024年模型新的自动化AI Agent会非常好,接近AGI
9.10,爆料chatGPT将推出referral功能,几天后兑现
9.18(最有意思的来了),发推称“通用人工智能已经在(OpenAI)内部实现”(AGI has been achieved interally),Sam Altman本人沉寂了7年的账号突然对这条帖子进行了评论表示肯定(随后改称呼是开玩笑)
10.25, 爆料暗示OpenAI内部暗流涌动,即将发生重大的人事变动
10.26,明年AI会有新的更好的技术进步,alignment和Hallucination问题都会解决,会导致普通人相当程度的失业
11.17, Sam Altman被董事会开除
此外,
@Feltsteam
在R站上也透露了一些内容,与
@apples_jimmy
的内容有重合,主要透露了OpenAI的另一个大模型Arriks,据称参数量125万亿,作为对照,GPT-1/2/3/4的参数量分别为1.2亿,15亿,1750亿,1.7万亿,功能上可以实现everything to everything。
然后是官方的一些口风变化,从9月下旬开始,Sam Altman和Ilya Sutskever有一些暗示
9.22,Sam:“当然10x工程师很酷,但是10000x工程师/研究员简直他妈的..”
9.23,Ilya:“Wagmi,我们一定会成功(实现AGI)”
10.6,Ilya:”如果你觉得智能相比其他是人类最重要的特质,那你苦日子来了“
10.7,在MIT的CBMM采访上,主持人问你觉得5年内模型能做准确陈述数学定理吗?Ilya非常不屑地说你难道觉得现在的模型不行?
10.15,OpenAI在官网修改公司核心价值观:“聚焦AGI,任何于此无关的事情都不重要,保持强度和斗志,快速增长“
11.13,Sam Altman在Android Jones的采访中说:“…我认为这是一个真正的恐惧时刻,我们构建的是一个工具还是一个生物,这将意味着什么?我认为即将发生的 AI 特别之处,在于它将自行生成全新的知识,AI 的下一个阶段将是发现新知识和思考,并提出训练集中不存在的事物,当AI 开始自主地发现人类之前未发现的新物理学,那么训练数据就不再重要了,它已经达到了一种能力水平,在发明全新的知识,这些不是训练集中存在的东西,它在思考,它在设计实验,它根据这些实验更新自己,那我们该怎么办?”
11.6,Sam Altman在OpenAI开发者大会结束的最后一句话是,“明年,我们现在正在开发的东西会让今天发布的看起来非常老派落后”
11.15,APEC峰会上Sam声称:“模型的能力会有所有人都意想不到的巨大飞跃…就在几周前,OpenAI迎来了成立以来第四次技术突破,推开无知的面纱并推进发现的前沿,我在现场经历这样的时刻是我一生的职业荣耀”
11.17,Sam被开除
最近路透社报道称:OpenAI 的一些人认为 Q*(发音为 Q-Star)可能是探索通用人工智能 (AGI) 的突破,新模型能够解决某些数学问题,虽然数学成绩仅达到小学生的水平,但在此类测试中取得好成绩让研究人员对 Q* 未来的成功非常乐观。
然后大家疯狂八卦到底又有了什么新技术,总结下来就是可以用合成数据解决数据不足的问题,比如新模型的一部分训练数据由GPT-4生成,而且模型有类似AlphaZero的self-play,可以进行自我迭代评估,左脚踩右脚嘎嘎进步。
总之,从非官方的小道消息和官方的暗示来看,下一代模型的能力是一个非常大的跃升,AGI的时间线可能比大部分人预料的都短,当然AGI是个逐渐实现的过程,但咱就是说“我就感觉到快:)”。马斯克早在2020年GPT-3发布后发推称,GPT-5/GPT-6会达到最聪明人类的水准,我们拭目以待。
我对大模型未来的格局猜测是,大概率最多只剩三家,OpenAI,马斯克的xAI,谷歌的Gemini。其他的模型和领先模型的差距会越来越大,逐渐贬值然后彻底irrelevant。现在OpenAI处于毫无疑问的领先水平,马斯克的xAI正在加班搞Grok,产品马上大规模发布,Google的Gemini没什么动静,小道消息就是多模态+推理+类似AlphaZero的self-play提升。
如果2025年的模型会达到AGI的水平,很难想象会发生什么,我们就在技术爆炸的前夜,文明进步的斜率马上要突变了。
#OpenAI人事变动