即刻App年轻人的同好社区
下载
App内打开
Szhans
9月前
🎭 AI 新知: Open AI 超级对齐的研究资助计划有关获奖正式公布

对齐问题( Alignment) 对于大模型至关重要,它决定模型可解释性和 AI 伦理安全等各种核心难题。[1]

Open AI 在近日宣布快速拨款,显示出他们对可信赖的 AGI 理念的坚守。从约2700份申请中选出50个获奖者,总计拨款989.5万美元。[2]

🏆 获助者分布

大学:570万美元(22个)
研究生:360万美元(25个)
非营利组织:25万美元(1个)
个人:29.5万美元(2个)

图 3,是名为 Haoyue Bai 的博士生的获奖分享

🔬 资助的研究领域:

弱到强的泛化:520万美元(26个)
可扩展监督:100万美元(5个)
自顶向下的可解释性:190万美元(9个)
机械可解释性:120万美元(6个)
思维链的忠实度:70万美元(2个)
对抗性稳健性:65万美元(4个)
数据归因:30万美元(1个)
评估/预测:70万美元(4个)
其他:100万美元(6个)

⛰️ 感想与展望

Open AI 超级对齐负责人 Jan Leike 表示:

1. 弱到强的泛化占主导地位,这可能与我们最近发表的相关论文有关。未来,我们希望看到更多元化的研究方向和创新思路。

2. 可解释性作为一个热门话题,申请数量低于预期。我们鼓励更多研究者在这一领域深入探索,提出更多有价值的研究问题和解决方案。[3]

3. 评估和预测方面的提案较少,但这是ML领域中非常重要且常被低估的一环。我们期待看到更多研究者投入到这一方向,提升评估的科学性和有效性。

总的来说,这次拨款计划展现了对齐研究领域的巨大潜力和活力。我们相信,通过学术界和业界的共同努力,对齐技术将取得更大的突破,为构建安全、可靠、有益的人工智能系统奠定坚实基础。

不难想象这是重要的 AI 安全里程碑, 欢迎业内人士分享你们对它的看法。

📖 注释和参考:

[1] 可解释性的意义 m.okjike.com

[2] Open AI 的超级对齐 x.com

[3] Claude 这一年 m.okjike.com
16

来自圈子

圈子图片

AI探索站

79860人已经加入