昨天参加了一个由Intel和联想赞助AI Agent闭门交流会,大概25人左右,主要是清北哈工大深圳的学者,以及Intel、联想、OPPO研究院、腾讯AI Lab、鹏城实验室在内的大模型从业者,凑巧的是上周我还在找chatlaw的内测账号,昨天就碰到创始人了。
会上先是学者们分享自己在AI agent领域的研究工作和趋势预测,然后由出来创业的前阿里算法大佬和前OPPO技术战略大佬引导做brainstorm探讨。
总结了一些takeway和个人思考在此share,希望能给同路人一些启发:
1. Agent架构中,memory和action技术是没有壁垒的,关键在于agent自主的planning能力,以及如何将memory和action按顺序组合成用户需要的agent。
2. 目前的agent架构或许也会在某种程度上限制agent发展。
3. agent的能力优化包括技术和产品两个角度:
- 技术上亟待攻克的难题是planning能力,一些观点是可以想象成RL的action而不是复杂的系统,RL的很多思想就是用于优化agent的,比如稀疏奖励、马尔科夫决策过程、贝尔曼方程,但RL训练比较困难,通常不收敛。
- 产品上主要是通过MVP积累用户并根据用户反馈迭代优化,当用户数量达到一定程度后利用AB test等数科方法进行产品优化,包括数据、模型、交互视觉等方面。这也是我目前主要做的工作,从用户反馈中提取并排列需求优先级,针对bad case设计技术方案,在产品层面不一定要最炫的技术,而要真正让用户用得顺手的能力。
4. 现在的agent都是LLM-based,从RL-based到transformer-based再到LLM-based,autoGPT是第一个最佳实践,LLM或许是agent能力基座的最优解,未来还会基于LangChain框架继续发展,但注意是大语言模型,而不是图像模型,如何做好多模态模型,重要的是图像是否需要大模型,目前的多模态实际上就是把图像塞到语言模型中。
5. 做产品要注意海内外应该做两套大模型,中英文有很多不能对齐的地方,国外大模型的中文也是用国内中文大模型调的,并且国内外还存在较大的监管环境差异,国内立案流程太复杂了。
6. AI风险治理是一个重要课题,大模型时代的风险安全问题包括模型越狱(内容风险)、模型滥用(隐私泄露)、伦理风险(社会偏见),这些问题也有传统解法,但目前学界在探索用AI agent来构建可规模化的治理框架,并且大厂内部已经有相关平台,可用于自动合规评审、安全增强指令生成、内容可靠性评估、推理链路可解释、神经元概念分解等,应用场景包括医疗、公益、支教、UGC游戏检测。