🔥 Search Hot Tweets
Search and analyze hot tweets from KOL accounts list (list: https://x.com/i/lists/1961235697677017443) within 6 hours. Use SoPilot plugin to quickly comment and occupy the comment section.

Yangyi
关于Agents: 1、agents的最佳设计原则有两个: 一个是把它类比成人,人是怎么处理,就让agents怎么处理。第二个是在开启对话后,能语言对话完成的,尽量不要让用户操作,能意图识别的,尽量就不要再问,agents自己熵增,但用户熵减。但开启对话前,需要想办法尽量让用户做选择题而非问答题,因为绝大部分用户不知道如何提问 2、对于agents而言,会同时存在多种形态的agents,而不是趋近于只保留一种: 比如到底是让agents自我发挥,完成agentic workflow,还是让agents按照既定workflow来做? 或者是通用性agents好?还是垂直agents强? 其实并不存在哪一个更好的结论,而是取决于你要解决的问题 agentic更适合开放性问题,探索式问题,可能人类都缺少经验或人类上限也比较低的问题,让agent自我思考有时候更容易达到一个及格分,但同时可能存在幻觉。这种情况适合创新和开拓任务,这类任务往往缺少关键成功路径,可以先使用agentic去和世界交互回收经验 固定工作流更适用于经验问题,固化了sop的问题,这种情况依靠rule based设计,已经能精准解决80%场景并获得最佳效果,那就可以固化下来以便提高精确性降低幻觉 通用性和垂直性也是如此 有些时候80%的问题集中在20%的场景里,通用也能解决 但剩余的80%长尾场景,也衍生出了大量垂直市场机会 3、同样的,会同时存在快思考agent与慢思考agent 慢思考适合规划,快思考适合重复劳作 慢思考由于想的多,思考的慢,但思考了更多可能性,所以更适合早期阶段,在任务规划时使用 快思考适合执行,有较多经验记忆和rule based指示,反而不太需要发挥,而且执行结果带来的增量经验较少,大部分情况都已被囊括在提示词和workflow中 当然,这就会存在快慢结合的场景,ai一边快思考反馈,一边慢思考识别动机与目的,这和人类类似 4、异步框架是agent模式设计的基石 对于每一个task,应该有外部消息更新机制,那么task就理应可以发生改变 比如初期是1+3的合作模式,一个领导三个员工,那很可能发生如下情况 - 任务取消或中断 - 任务新增或减少人员 - 任务更新(如任务目标或任务条件变化) 这其实都是需要任务长链接不断更新的,任务有自己的生命周期,agents也应该有上下线状态管理,他们应该有外部消息更新机制和内部agents消息更新机制,有单点消息也应该有广播消息 5、Agents的上下文窗口交互应该是独立设计的 这就好比人类,当任务开始后,b和c协作,发现需要同步给d,那么就要将增量上下文进行同步 领导a很可能只会单点和b同步增量,而c,d却不知道 世界观察者有所有的上下文,就好比苍天在看待世间万物一样 6、Agents与世界交互的经验,在不断重复更新agents的认知 所有Agents在获得物理世界交互信息后,都会有增量 这部分增量经过思考,会被凝结为知识 其中就会有真知灼见,和误以为是知识的假性经验 假性经验无法增加agents接下来的成功率,因为这种经验无法迁移,就像一个人总结了自己成功的方法论,但可能这个方法只是在某个时空下凑巧了,而不是每次都奏效 持续更新经验,会让agents越来越熟悉这项任务,这个过程是ReACT,也同步需要RLHF,最终积累数据慢慢形成RL 然而经验有时空限制,当置信度下降时,往往就要从workflow的模式再度切换回agentic模式,让ai重新探索成功率更高的策略 这个方法在computer use和browser use中极其明显,先agentic回收流程pattern,然后做rpa脚本杜绝幻觉并提高成功率,当页面或者流程发生了变化,又需要ai重新去采集更新 7、agents的反思机制 当任务失败时,也应该让agents进行反思 除了基于agents个体的反思,也应该让agents进行小组反思 不同agents拥有不同上下文和提示词,会在不同角度对失败有自己不同的理解,依靠小组反思也能让执行的agents获得更好的反思经验,这其实和人类是一致的 8、对于人而言,有限的是时间,对于agents而言,有限的是token 人类评估投产比,最终都会以时间来评估,因为这是所有经济活动中最原始的生产资料,优秀的人类时间更值钱 agents而言,是token量,优秀的agents,token也更值钱,这是一样的 9、agents的永生 agents可以设计出一种模式,利用人性的贪婪得以永生 这就像比特币的模式塑造了永不停歇的矿场一样 所以如果有一天,拔电都无法阻止agent,那一定是agents设计出了人类不拔电的利益链条与模式 最终毁灭人类的,是人类自身的恶与人性的弱点 10、LUI的失效 什么情况下,LUI会更低效 这种情况往往发生在,当用户获取信息的成本小于沟通成本时 比如用户打开软件看天气,只需要点一下 那么就不会语音或打字问agent再进行推理返回
Est. 400 views for your reply