SoPilotSoPilot

🔥 Search Hot Tweets

Search and analyze hot tweets from KOL accounts list (list: https://x.com/i/lists/1961235697677017443) within 6 hours. Use SoPilot plugin to quickly comment and occupy the comment section.

Real-time Hot Tweet Analysis

宝玉

宝玉

@dotey· 136.1K followers

在第一个推理模型 o1 刚发布的时候,我就注意到一个现象:如果你给推理模型太多具体的指导,结果反而不理想,但是如果你只是给出你想要得到什么结果,让 AI 自己去探索最佳方式,那反而能得到更好的结果。 一个具体的例子就是我在用 GPT-4o 翻译的时候,会让模型分三步翻译:直译 -> 反思 -> 意译,能大幅提升翻译质量。但是到 o1 的时候,让推理模型用这三个步骤,翻译质量反而很糟糕,后来我把翻译提示词修改为: > 请将原文用中文重写,尊重原意的前提下通俗易懂。 结果翻译质量就可以非常好。 在这期视频中,一开始就重点讲了这个问题: 过去一年,开发者们在大语言模型周围搭建了复杂的"脚手架"——精心设计的工作流、严格的决策树、预设的执行路径。但Anthropic团队发现了一个残酷的真相:那些升级新模型后抱怨"性能提升不明显"的客户,问题不在模型,而在于为旧模型设计的约束体系。 当你用规则限制模型的每一步行动时,你实际上是在用自己的智能替代模型的智能。更致命的是,这些脚手架为模型设定了能力上限——当新一代模型发布时,采用自主架构的系统自动变强,而被束缚在预设流程中的系统却无法受益。 真正的智能体只有一个特征:自主性 什么是真正的 AI 智能体? 答案简单:能够自己决定调用什么工具、如何处理结果、选择下一步行动的系统。 不是所有 AI 应用都需要是智能体。预定义工作流在许多场景下很有价值。但如果你要构建智能体,就要让模型的推理能力成为核心驱动力,而不是你的预设逻辑。

70
15
4
17.2K
Posted 21d ago · Data updated 21d ago
Reply Suggestion

Est. 5.4K views for your reply