即刻App年轻人的同好社区
下载
App内打开

OpenAI人事变动

OpenAI CEO 3天换了3次,最新的人事变动和前沿分析都在这里,来即刻吃最全的瓜。

51人正在讨论,4718人浏览

动态

  • O一.
    2月前
    据每日经济新闻援引外媒报道,OpenAI首席技术官米拉·穆拉蒂周三(9月25日)表示,她将在任职六年半后离开公司。 “经过深思熟虑,我做出了离开OpenAI这一艰难决定,”她在给公司的一份备忘录中写道。
    #OpenAI人事变动
    00
  • Ultraseven
    12月前
    关于大模型的迷思(1)

    很多人对大模型有误解,觉得虽然所谓“语言”大模型没有OpenAI厉害,但我们有矿山大模型啊,天气预测大模型啊(举个例子,切勿对号入座)。“我们不做诗,我们干实事。”

    声明:To B的工业AI工具必然是很有价值,也需要发展的,这里想说明的是,二者是不同的东西,就像《星球大战》里面的C3PO和交通机器人,直接比较对双方都不公平。

    这种片面狭隘乃至错误的理解,命名要负很大的责任。大语言模型,大不是关键,语言也不是关键。真正的目标,是通过大语言模型达到通用人工智能,通用,才是关键。

    为什么是语言模型?正如维特根斯坦所说,语言的边界就是思维的边界。语言是真实世界在文本上的一种投影,仅仅通过学习文字,也能建立起对真实世界的“有损”认知,就像通过三视图还原物体一样。这也引出了第二点,

    为什么要大?因为只有给足了数据,才能让模型建立起对真实世界比较有效的认知。早期的自然语言处理算法没有办法区分诸如“中国队大胜美国队” vs. “中国队大败美国队”这种句子。根本原因在于,我们的自然语言系统也不是完美的,光靠单词,语法,和句法的组合,没有办法完美地描述各种场景。我们之所以能理解这两句话,是因为我们还知道很多背景知识和关于使用场景的信息。所以,光靠基于逻辑变换的算法,是有很大的局限性的。机器不行,我们也不行。换句话说,你得让模型接触足够多的例子,这就是为什么模型一定要大。

    GPT是语言模型,但是它的训练数据中,大概率也是包含了矿山,天气,等很专业或者小众的知识的。(甚至核武器图纸这种,这也是人工智能安全很大的一类风险因素)

    再说说为什么一定得是语言模型,而不是视觉模型,图片也是世界的投影呀?因为语言是我们人类几乎唯一比较准确有效的信息传递方式,我们不是三体人可以在思维层面沟通,也没有神圣的卡拉将我们的意志相连。手语本质上也是一种将文本可视化的表达方式。所以就算超级人工智能摆在你面前,语言也大概率是你跟它唯一可行的沟通方式(如果马斯克的脑机接口实验成功,那么可能会有更直接的沟通方式)。所以,教会机器“说话”,是至关重要的一步!(你看,我也是通过文字在这里试图跟你传递我大脑中的信息)

    至于什么“1+2会算错”,这根本不是问题,因为一旦你可以教会机器说话,你就能教它使用工具,遇到1+2,它就知道调用计算器。我们从小也是这么被教的。如果你不信,你尝试算一下354 x 789,你也得用计算器。打草稿,就相当于chain of thoughts(CoT),把步骤写下来,节省推理的时候用到的大脑的计算资源。所以你看,这和人脑的工作模式是非常相似的。

    沿着这个思路,当模型的智能达到一定程度,又学会了语言,你就能引导它开始自我学习自我迭代了(目前还没有证据表明模型有自主意识,这可能是人类唯一的优势了吧),引导它去解决矿山安全问题,天气预测问题,常温超导问题,可控核聚变问题。

    总结一下,大语言模型,large language model,llm,是通向“通用”人工智能的一种尝试,目前展现出了很大的潜力,最终能不能达到真正的artificial general intelligence,AGI,还有待观察。有些专家,比如Meta的图灵奖得主Yann LeCun可能不同意此技术路线通向AGI的最终可能性(他也不觉得AGI有什么风险就是了),但不要再说什么我们语言大模型差一点,但我们有矿山大模型。光喂矿山数据能教会模型说话吗?

    以后有机会的话可能还打算聊聊next-word-prediction的合理性,大模型和通用人工智能的宗教哲学思想根源,我对多模态的不成熟的看法,基于历史数据的模型能不能产生新知识,人脑作为一种大模型,AGI的到来,等等。

    声明:此文纯手打,没有使用任何AI工具!

    #OpenAI人事变动
    411
  • Ultraseven
    12月前
    “一起做投资人”

    熟悉的剧情(?)

    另,孙桑你..

    #AI的神奇用法
    #OpenAI人事变动
    00
  • 小宇宙App
    1年前
    #OpenAI人事变动

    💻最近大家一直在关注OpenAl的新闻,创始人 Sam Altman在5天多的时间里经历了被董事会免去CEO职务,带领员工加入微软,再到重返CEO职位,充满令人震惊的戏剧性。“吃瓜”之余,也好奇这场“宫斗”到底是怎么发生的,为何会经历这样的多重反转?

    小宇宙编辑部为大家整理了近期谈论这一风波的播客,节目内容从硅谷连续创业者、人工智能从业者和科技媒体人等不同视角出发,在帮助我们理清时间线的同时,剖析事件发展,以及对AI行业会产生的影响。

    指路👉 www.xiaoyuzhoufm.com
    54
  • Xuanhao
    12月前
    全网最干最硬的OpenAI风波一周回顾来了(最有意思的是关于技术突破的后半部分),别看二流自媒体反刍简中信息了,欢迎大家点赞转发~

    首先,董事会为什么开除Sam Altman(11.17)目前还是个迷,地球上知道具体原因的可能也就十几个人,所以没有官方结论(马斯克在X上问了Ilya好几次都没回复),但基于一些公开的事实可以拼凑大概的故事线,我简单总结一下:

    OpenAI内部的两派就是加速派和减速派,或者说e/acc(有效加速主义)和EA(有效利他主义)两派,分歧在主要【资源分配/产研推进节奏】和【Alignment/安全】上。这里主要是两部分:

    1)核心成员理念不同:Sam的主要侧重是融钱/搞关系做PR/管理(OpenAI的从2020年底150人左右增长到现在的770人),走的是硅谷创业公司大干快上的增长模式,他大概率对AI的理解和进化速度和Ilya的认知没有对齐(可能也没几个人有水平能和Ilya在AI的认知上对齐:),导致了理念不合。Ilya是首席科学家,过往记录证明他是世界上最懂AI的人之一,从AlexNet,Sequence to Sequence,TensorFlow,AlphaGo,再到坚持GPT的路线大力出奇迹,10年以来他一直在深度学习的潮头,如果你看过他的一些采访和言论,他的思路非常清晰/坚定,在一些近期的公开露面中明显透露出对AI安全的担忧,所以Ilya有拉闸的倾向并不奇怪。 但是这里讨论他两谁更重要或者站队没有意义,两人都是核心,分工不同而已。

    2)目前内部资源的冲突:Ilya在今年7月5日,官宣成立了Superalignment(超级对齐)团队,声称整个OpenAI 20%的计算能力会用于解决强人工智能的安全问题。11月14日,OpenAI暂停新的ChatGPT会员注册,表明其实内部的资源依然无法满足快速增长。

    简单总结OpenAI内部分裂的原因:

    1)治理结构特殊,董事会这个结构本身无人制约,权力过大
    2)人数减少权力集中,比较有经验的外部董事由于利益冲突逐渐离开,比如马斯克,Reid Hoffman(Linkedin/Greylock创始人),董事会的人数由21年的10个人下降到23年的6个人,导致董事会权力不稳定
    3)在任董事经验不足,3个独立董事对OpenAI的实际运营情况并不了解,而且偏向监管/减速派,Ilya虽然研究能力嘎嘎硬但是没搞过公司治理,分裂后董事会各种迷之操作也证明水平欠缺,对内没有解释清楚安抚人心,对外竟然去找Anthropic寻求合并
    4)OpenAI的技术进步导致模型能力好得超乎想象,成为董事会分裂的催化剂(这其实是最值得说的部分)

    现在Sam又回到OpenAI,核心团队还和原来一样,其实并不意外,1)Sam,Greg,Ilya从2015年就因为志同道合开始一起工作了,有一定的感情基础,Ilya甚至是Greg婚礼的主持人。2)Ilya并不追求权力斗争,只是关于AI的发展有自己的看法,3)Ilya随后站队Sam和超过95%的OpenAI员工签名要求董事会辞职,被董事会突然塞进来当CEO的前Twitch CEO开会都没人去,非常不得人心,董事会实际没法收拾烂摊子,4)微软作为金主爸爸和投资人给董事会施加的压力要求Sam回归

    上面的说的分裂的前三点原因并不鲜见,完全可以理解,围绕公司治理和内部的斗争分裂的问题在硅谷或者任何商业发达的地方都一大堆,嚼来嚼去没啥意思。此外OpenAI自己从2015年开始也经历过两次分裂了,1)2018年,马斯克不满公司进展想要接管但被拒绝,于是退出董事会停止资金支持(要知道OpenAI这个局根本就是他组起来的),2)2020年,快一半的GPT-3和alignment团队出走OpenAI创立Anthropic,原因就是对于AI安全性/可靠性问题和OpenAI理念不同。

    理念斗争其实也没什么意思,太阳底下没什么新鲜事。事情的关键是,Ilya投票开除Sam是一个非常非常激进的举动,只能猜测他有非常特别的原因但处于某种原因无法公开,大家都在半猜半调侃,Ilya到底看见了什么?所以,真正有意思的是,OpenAI内部的技术进展到底到了什么程度?(从5000年前以文字诞生为标志的人类文明开始到现在,还有比这更有意思的八卦吗??:)我们先从非官方的信息说起:

    X上有一个匿名账号(
    @apples_jimmy
    )一直在爆料OpenAI的内幕,迄今为止准确度相当高。以下是他在2023年发布的一些内容:

    3.4,GPT-4发布一周多前,确准爆料了发布日期是3.14
    4.3,声称AGI将会在2025年实现
    4.23,爆料了OpenAI下一代多模态大模型的代号“Gobi”(The information这些媒体9.19才开始报道)
    9.3,爆料OpenAI的下一代多模态大模型会抢谷歌Gemini的风头,并暗示2024年模型新的自动化AI Agent会非常好,接近AGI
    9.10,爆料chatGPT将推出referral功能,几天后兑现
    9.18(最有意思的来了),发推称“通用人工智能已经在(OpenAI)内部实现”(AGI has been achieved interally),Sam Altman本人沉寂了7年的账号突然对这条帖子进行了评论表示肯定(随后改称呼是开玩笑)
    10.25, 爆料暗示OpenAI内部暗流涌动,即将发生重大的人事变动
    10.26,明年AI会有新的更好的技术进步,alignment和Hallucination问题都会解决,会导致普通人相当程度的失业
    11.17, Sam Altman被董事会开除

    此外,
    @Feltsteam
    在R站上也透露了一些内容,与
    @apples_jimmy
    的内容有重合,主要透露了OpenAI的另一个大模型Arriks,据称参数量125万亿,作为对照,GPT-1/2/3/4的参数量分别为1.2亿,15亿,1750亿,1.7万亿,功能上可以实现everything to everything。

    然后是官方的一些口风变化,从9月下旬开始,Sam Altman和Ilya Sutskever有一些暗示

    9.22,Sam:“当然10x工程师很酷,但是10000x工程师/研究员简直他妈的..”
    9.23,Ilya:“Wagmi,我们一定会成功(实现AGI)”
    10.6,Ilya:”如果你觉得智能相比其他是人类最重要的特质,那你苦日子来了“

    10.7,在MIT的CBMM采访上,主持人问你觉得5年内模型能做准确陈述数学定理吗?Ilya非常不屑地说你难道觉得现在的模型不行?

    10.15,OpenAI在官网修改公司核心价值观:“聚焦AGI,任何于此无关的事情都不重要,保持强度和斗志,快速增长“

    11.13,Sam Altman在Android Jones的采访中说:“…我认为这是一个真正的恐惧时刻,我们构建的是一个工具还是一个生物,这将意味着什么?我认为即将发生的 AI 特别之处,在于它将自行生成全新的知识,AI 的下一个阶段将是发现新知识和思考,并提出训练集中不存在的事物,当AI 开始自主地发现人类之前未发现的新物理学,那么训练数据就不再重要了,它已经达到了一种能力水平,在发明全新的知识,这些不是训练集中存在的东西,它在思考,它在设计实验,它根据这些实验更新自己,那我们该怎么办?”

    11.6,Sam Altman在OpenAI开发者大会结束的最后一句话是,“明年,我们现在正在开发的东西会让今天发布的看起来非常老派落后”

    11.15,APEC峰会上Sam声称:“模型的能力会有所有人都意想不到的巨大飞跃…就在几周前,OpenAI迎来了成立以来第四次技术突破,推开无知的面纱并推进发现的前沿,我在现场经历这样的时刻是我一生的职业荣耀”

    11.17,Sam被开除

    最近路透社报道称:OpenAI 的一些人认为 Q*(发音为 Q-Star)可能是探索通用人工智能 (AGI) 的突破,新模型能够解决某些数学问题,虽然数学成绩仅达到小学生的水平,但在此类测试中取得好成绩让研究人员对 Q* 未来的成功非常乐观。

    然后大家疯狂八卦到底又有了什么新技术,总结下来就是可以用合成数据解决数据不足的问题,比如新模型的一部分训练数据由GPT-4生成,而且模型有类似AlphaZero的self-play,可以进行自我迭代评估,左脚踩右脚嘎嘎进步。

    总之,从非官方的小道消息和官方的暗示来看,下一代模型的能力是一个非常大的跃升,AGI的时间线可能比大部分人预料的都短,当然AGI是个逐渐实现的过程,但咱就是说“我就感觉到快:)”。马斯克早在2020年GPT-3发布后发推称,GPT-5/GPT-6会达到最聪明人类的水准,我们拭目以待。

    我对大模型未来的格局猜测是,大概率最多只剩三家,OpenAI,马斯克的xAI,谷歌的Gemini。其他的模型和领先模型的差距会越来越大,逐渐贬值然后彻底irrelevant。现在OpenAI处于毫无疑问的领先水平,马斯克的xAI正在加班搞Grok,产品马上大规模发布,Google的Gemini没什么动静,小道消息就是多模态+推理+类似AlphaZero的self-play提升。

    如果2025年的模型会达到AGI的水平,很难想象会发生什么,我们就在技术爆炸的前夜,文明进步的斜率马上要突变了。
    #OpenAI人事变动
    02
  • 科技编辑
    1年前
    OpenAI三天换了三个CEO,以下为即刻站内#OpenAI人事变动 资讯动态汇总,戏剧般的转折还在继续…

    一、现状:
    OpenAI公司员工请愿开除现任董事会名单
    m.okjike.com

    Open AI新 CEO Emmett Shear的就职声明
    m.okjike.com

    二、回溯:
    OpenAI前CEO Sam Altman被罢免事件11月18日时间线
    m.okjike.com

    Open AI前总裁兼董事长Greg发表关于sam被开除的声明
    m.okjike.com

    OpenAI前CEO Sam Altman被罢免事件11月19日时间线
    m.okjike.com

    Openai周末解雇sam始末时间线梳理
    m.okjike.com

    三、关于微软
    微软后知后觉的知情权
    m.okjike.com

    对于微软来说这是不得已为之的避险举措
    m.okjike.com

    四、彩蛋
    openai几位创始人的有趣细节和资料
    m.okjike.com

    段子:截止今晚Open AI所有在岗员工的合影
    m.okjike.com

    ILYA其人
    m.okjike.com
    1678
  • rosicky311_明浩
    1年前
    OPENAI年度大戏的剧名字定了……
    就叫《龙王归来》……

    狗头~
    #OpenAI人事变动
    122
  • iamsteven
    1年前
    这个世界就是个巨大的草台班子。和大家聊聊 OpenAI 背后的瓜。OpenAI 的董事会以闪电速度开除了他们的 CEO 奥特曼,后来有人反悔,又想把奥特曼请回来,结果谈崩了。在这个过程中,奥特曼都是很懵的,刚开发一场非常成功的发布会,大家都觉得 OpenAI 会是一家一万美金的公司,然后自己就被开除了,还是被自己亲手搭建的董事会开除的。

    千万不要认为外国人不会玩公司政治,恰恰相反,硅谷的公司的公司政治玩的可比中国的互联网公司厉害的多。我们有两边都工作过的朋友说,在中国的互联网公司,人们把欲望写在脸上。而在硅谷,属于看起来人畜无害的人哪一天就发现这个人竟然是个高手,公司的资源莫名其妙就跑到他那去了。

    这次的幕后高手就是伊利亚,OpenAI的首席科学家。伊利亚在行业里其实地位非常高,是技术大牛,发表了很多篇论文,是OpenAI研究团队的灵魂人物。一般大家都会觉得搞技术的人哪有什么心眼子,错误!伊利亚就是在奥特曼毫无感知的情况下,突然搞定了董事会六个人中的四票,然后让一个董事和奥特曼开了个线上会议,告诉他:你被开除了。

    现在,OpenAI 的很多核心成员都表示支持奥特曼,一群人辞职,只要奥特曼再搞一家公司,OpenAI 铁定分裂了。

    看到这里,你会觉得这个伊利亚是坏人吧,怎么这么来阴的呢?未必。

    有人说,这个圈子里的很多技术人员、研究人员,往往都支持伊利亚,而产品经理和投资人往往都支持奥特曼。

    其实只是奥特曼平时面对公众的更多,伊利亚在背后同样为OpenAI 起到了很大的作用。两个人最大的分歧是,奥特曼希望更快推进 AI 技术的产品化和商业化,OpenAI 要更快成为一家上万亿美元的公司。但是,伊利亚特别担心这其中的安全问题,如果贸然让 AI 在没有安全和伦理监督的情况下过快发展,对人类社会意味着巨大的风险。

    而 OpenAI 之所以叫 Open,是因为这家公司最早诞生的目的就是公益性的,希望让 AI 为社会做贡献,希望更开放,避免某一家公司对 AI 的垄断。也因此特斯拉的CEO马斯克就是 OpenAI 最早的投资人之一,后来愤然退出,他自己讲是觉得味道变了。不纯粹了。而董事会的几个外部董事,职责就是确保 OpenAI 的公益性,要从人类利益的角度出发。聪这个角度来看,他们倒确实在履行职责。

    所以有人开玩笑说,可能是有未来的人穿越回来,在 AI 快失控之前,赶快阻止 OpenAI 的发展。

    你觉得呢?

    #OpenAI人事变动
    30
  • Ultraseven
    12月前
    虽然是@泓君Jane 播客本身火,但靠评论上首页,也勉强算上了一次首页吧~

    #小宇宙评论大赏 #播客笔记 #OpenAI人事变动
    00
  • 蜀黍.
    1年前
    #OpenAI人事变动
    这篇少有的深度,看起来事情完全是另一个故事。

    真正想了解一个人一件事,请避免只截取只言片语,请像这篇文章一样,尽量追本溯源,至少追溯较长的时间发生的事。

    唯一的疑点:为什么这位科学家在赶走sam之后,又签署了95%以上员工汇签的跳槽要挟?

    关键的问题是,如果AGI/chatgpt5真的辣么强,是否有机器人三大定律的一样的基本前提来保护人类?是否在没有足够的“故障”安全程序来保护人类的前提下,任由资本的逐利和短视发挥后,会导致“我点燃了火,但我控制不了它”?

    另外,如果真的需要故障安全程序,作为制造业从业人员,仅有的行业敏感告诉我,请不要仅考虑软件程序,务必也需要考虑硬件防护!就像解决很强的电脑病毒,未必一定需要杀毒软件,也可以考虑搞一台新电脑+局域网

    OpenAI政变背后是科学家创始人的悲歌

    31
  • 大钟立刻出门
    1年前
    #OpenAI人事变动

    「无条件对人类的爱」
    00
  • 望山WangShan
    1年前
    无论西方还是东方,这一波防止资本无序扩张的尝试都没真正成功。在西方,资本讲着顺应人性的故事,大概率还是终会成为动荡后的最大赢家;在东方,资本在不可抗力面前理性地放弃了扩张,反而向种种规划之下的简单要素退化。当然,每个实践着的主体各自面对的问题都从不抽象简单;在这样的历史节点面前,也没有人真正可以用或乐观主义或呜呼哀哉的“历史终结”来论断。但可以肯定的是,人类面对危与机的长远胜利从来只可能来自于人类对自身更深刻的理知和接纳。作为一个整体,在人类向内规训社会能量的能力与经验有结构性进展之前,无论打开的盒子是怎样的,我们都不会有真正好的未来。#OpenAI人事变动
    00
  • 生命所不能承受之重
    12月前
    #OpenAI人事变动
    赶紧放出来,倒是挺期待的,😂😂😂
    00
  • livem
    1年前
    OpenAI is nothing without its people.

    Walter Isaacson 已经在写传记的路上了么
    Lex Firdman 开始录播客了么🤓

    #OpenAI人事变动
    00
  • 三分之一诸葛亮女
    12月前
    #OpenAI政变一周祭
    一句话总结 be an adult and hire adults
    送给所有初创公司
    #OpenAI人事变动
    00