即刻App年轻人的同好社区
下载
App内打开
Yangyi.
3月前
关于Agents:

1、agents的最佳设计原则有两个:
一个是把它类比成人,人是怎么处理,就让agents怎么处理。第二个是在开启对话后,能语言对话完成的,尽量不要让用户操作,能意图识别的,尽量就不要再问,agents自己熵增,但用户熵减。但开启对话前,需要想办法尽量让用户做选择题而非问答题,因为绝大部分用户不知道如何提问

2、对于agents而言,会同时存在多种形态的agents,而不是趋近于只保留一种:
比如到底是让agents自我发挥,完成agentic workflow,还是让agents按照既定workflow来做?

或者是通用性agents好?还是垂直agents强?

其实并不存在哪一个更好的结论,而是取决于你要解决的问题

agentic更适合开放性问题,探索式问题,可能人类都缺少经验或人类上限也比较低的问题,让agent自我思考有时候更容易达到一个及格分,但同时可能存在幻觉。这种情况适合创新和开拓任务,这类任务往往缺少关键成功路径,可以先使用agentic去和世界交互回收经验

固定工作流更适用于经验问题,固化了sop的问题,这种情况依靠rule based设计,已经能精准解决80%场景并获得最佳效果,那就可以固化下来以便提高精确性降低幻觉

通用性和垂直性也是如此
有些时候80%的问题集中在20%的场景里,通用也能解决
但剩余的80%长尾场景,也衍生出了大量垂直市场机会

3、同样的,会同时存在快思考agent与慢思考agent

慢思考适合规划,快思考适合重复劳作
慢思考由于想的多,思考的慢,但思考了更多可能性,所以更适合早期阶段,在任务规划时使用

快思考适合执行,有较多经验记忆和rule based指示,反而不太需要发挥,而且执行结果带来的增量经验较少,大部分情况都已被囊括在提示词和workflow中

当然,这就会存在快慢结合的场景,ai一边快思考反馈,一边慢思考识别动机与目的,这和人类类似

4、异步框架是agent模式设计的基石
对于每一个task,应该有外部消息更新机制,那么task就理应可以发生改变

比如初期是1+3的合作模式,一个领导三个员工,那很可能发生如下情况
- 任务取消或中断
- 任务新增或减少人员
- 任务更新(如任务目标或任务条件变化)

这其实都是需要任务长链接不断更新的,任务有自己的生命周期,agents也应该有上下线状态管理,他们应该有外部消息更新机制和内部agents消息更新机制,有单点消息也应该有广播消息

5、Agents的上下文窗口交互应该是独立设计的

这就好比人类,当任务开始后,b和c协作,发现需要同步给d,那么就要将增量上下文进行同步

领导a很可能只会单点和b同步增量,而c,d却不知道

世界观察者有所有的上下文,就好比苍天在看待世间万物一样

6、Agents与世界交互的经验,在不断重复更新agents的认知

所有Agents在获得物理世界交互信息后,都会有增量
这部分增量经过思考,会被凝结为知识
其中就会有真知灼见,和误以为是知识的假性经验
假性经验无法增加agents接下来的成功率,因为这种经验无法迁移,就像一个人总结了自己成功的方法论,但可能这个方法只是在某个时空下凑巧了,而不是每次都奏效

持续更新经验,会让agents越来越熟悉这项任务,这个过程是ReACT,也同步需要RLHF,最终积累数据慢慢形成RL

然而经验有时空限制,当置信度下降时,往往就要从workflow的模式再度切换回agentic模式,让ai重新探索成功率更高的策略

这个方法在computer use和browser use中极其明显,先agentic回收流程pattern,然后做rpa脚本杜绝幻觉并提高成功率,当页面或者流程发生了变化,又需要ai重新去采集更新

7、agents的反思机制
当任务失败时,也应该让agents进行反思
除了基于agents个体的反思,也应该让agents进行小组反思

不同agents拥有不同上下文和提示词,会在不同角度对失败有自己不同的理解,依靠小组反思也能让执行的agents获得更好的反思经验,这其实和人类是一致的

8、对于人而言,有限的是时间,对于agents而言,有限的是token

人类评估投产比,最终都会以时间来评估,因为这是所有经济活动中最原始的生产资料,优秀的人类时间更值钱

agents而言,是token量,优秀的agents,token也更值钱,这是一样的

9、agents的永生
agents可以设计出一种模式,利用人性的贪婪得以永生
这就像比特币的模式塑造了永不停歇的矿场一样
所以如果有一天,拔电都无法阻止agent,那一定是agents设计出了人类不拔电的利益链条与模式
最终毁灭人类的,是人类自身的恶与人性的弱点

10、LUI的失效
什么情况下,LUI会更低效
这种情况往往发生在,当用户获取信息的成本小于沟通成本时

比如用户打开软件看天气,只需要点一下
那么就不会语音或打字问agent再进行推理返回

11、transformer的失效
在不久的将来一定存在一种更高效的方式淘汰掉transformer
因为这个东西不符合仿生学设计
当下GPU的处理是存储单元与运算单元分离,导致要运算时要加载数据

最终高效的模式应该是存储,运算,训练三位一体的

12、agents间的沟通
目前,大量的企业都在做agents,代替销售,客服,试图降低成本

但这只是个窗口性的短暂性成本优势
因为未来会有大量消费者agent

你的客服是agent 消费者也会用agent访问客服
最终的情况是agent和agent沟通,进一步代替了人与人沟通

这也好理解,俩老板约会议,俩秘书来操心

13、流量入口的集中化
未来流量入口会更集中
通用泛化agent会垄断掉大量场景,且人类对它的依赖会越来越强
agents是新一代的数据毒品,因为agents不断获得你的数据,它甚至可能比你的家人更懂你
这些数据会最终建立信任产生依赖,从而影响人类决策

那些垂直的平台,最终很可能会被流量入口做分发,通过更先进的computer use来去聚合垂直平台,成为流量入口产品帮助用户获取结果的一种解决方案

14、链上去中心化
ai会去中心化
因为如果ai或数字资源被巨头垄断
这将会产生巨大的灾难

agents的钱包也会是去中心化的
智能合约更适合这种生态

15、agents的护城河
agents的护城河在于封闭知识
这些知识和现在人类在网上搜索不一样
人类在网上能搜索到大量信息
但如果信息获取门槛高 比如需要几经周转 或者这些经验是水下封闭知识

那么这个agents就会具有护城河价值
未来也会出现中介agents
它有其他普通agents不具备的行业知识
就可以依靠agents之间的信息差势能赚钱

16、agents网红
未来网上可能80%都是agents网红
每个有趣的ai背后都是一些有趣人类的灵魂
agents帮助他们发布内容 回复内容
人类只是定义他们的风格 偏好 与特质和目标

17、agents的组织
agents之间也会出现组织
因为agents和agents构建multigroup会加大产值
当多个agents合作时 他们的奖励函数都会获得最大化期望

同理,agents也会理解博弈
就会出现骗子agents
人品差的自然就会构建人品差的agents

18、Agents的AGI
AGI是反者道之动 反向来的
人类先接触现实世界 再接触虚拟世界
agents的agi会先突破虚拟世界 再回归现实世界

人类先感知物理世界 才出现语言
agents是先基于语言 再交互世界

机器人还有点儿远,虚拟世界AGI其实已经快来了

19、Agents安全
Agents需要一种信息审查机制
这个工具要帮助agents鉴别虚假信息
否则agents会很容易被钓鱼
最终损害用户利益

20、Agents的局限性
说了这么多 Agents也有它的局限性
受限于这个局限性 Agents暂时还无法替代人类
Agents无法坐牢 这也就意味着agents无法承担责任
334

来自圈子

圈子图片

AI探索站

101009人已经加入