SoPilotSoPilot

🔥 Search Hot Tweets

Search and analyze hot tweets from KOL accounts list (list: https://x.com/i/lists/1961235697677017443) within 6 hours. Use SoPilot plugin to quickly comment and occupy the comment section.

Real-time Hot Tweet Analysis

CuiMao
26.0Kfo
CuiMao@CuiMao· 7h ago发布

吓死我了,连续被两位 AI 前辈关注受宠若惊,我自己平时内容真的太多互联网恶习了,发黄图,逗老外,打群架,还开地图炮🥲,我们一起来看看几位前辈什么时候受不了我的内容把我屏蔽了。 https://t.co/L3Qm9g8txo

54
0
40
19.8K
Data updated 1h ago
Viral Probability
54%
Predicted Views
68.0K
Est. 100 views for your reply
Ding
141.4Kfo
Ding@dingyi· 8h ago发布

上次是某人发了乔布斯女儿的照片获得 10000 美金,这次是一篇鸡汤 1 亿流量获得 4000 美金。 两者的共同点是,对你的平庸人生没有半点帮助。

108
0
33
24.7K
Data updated 1h ago
Viral Probability
62%
Predicted Views
117.0K
Est. 300 views for your reply
Frank Wang 玉伯
19.7Kfo
Frank Wang 玉伯@lifesinger· 8h ago发布

读完 Dan Koe 的文章《如何用一天修复你的整个人生》,很欣喜。发现自己已实践十几年,确实简单有效。 我的实践是,定期更新三篇文档。 文档一是《活好这一生》。每年年初更新这篇文档,内容包括:我不想成为什么、我想成为什么、期待自己今年改变什么。暗合了 Dan Koe 说的 Anti-vision(不想是啥)、Vision(想是啥)和 1 year goal(今年干啥)。 文档二是《干好这一年》。每个月初更新这篇文档,内容包括:这个月最重要的三件事是什么。暗合 Dan Koe 说的 1 month project。这是我打开最频繁的一个文档。偶尔会有大调整。有意思的是,实践多年后,写这篇文档时,会越写越懂自己,不会去写难以实现的事项。定的三件事能干完两件,才能持续正循环起来。 文档三是《过好每一天》。这是更新最慢的一篇文档,经常好几年才会有比较大的调整。内容包括:习惯培养、兴趣实践。去年我新加的一条习惯是:上床不看手机、看手机不上床。文档三暗合的是 Dan Koe 说的 Constraints(约束)。不断达成约束,会有一种平静的自由喜悦。 除了上面说的三篇文档,日常我还经常用的工具是 Linear 和 Calendar,用来管理 Dan Koe 说的 Daily levels 的各种事项。这类工具用法很常见,不多说。 用好上面三篇文档,你的整个人生,会非常不一样。这过程中,不仅能知命,还有机会改命。Dan Koe 写下的,就是如何用一天学会如何去改命。我刚好已实践十几年,确实有用。 如果你不相信我的实践,可以给我点赞、转发、收藏。阅读数超过 2000 万,就公布我的这三篇文档:《过好每一天》、《干好这一年》、《活好这一生》。

415
54
32
108.9K
Data updated 1h ago
Viral Probability
100%
Predicted Views
1.0M
Est. 2.8K views for your reply
宝玉
168.7Kfo
宝玉@dotey· 10h ago发布

推荐试试我写的 comic skill,可以根据输入的素材生成漫画故事、漫画教程 https://t.co/VugPchFhjP

185
48
20
25.0K
Data updated 1h ago
Viral Probability
76%
Predicted Views
48.0K
Est. 100 views for your reply
宝玉
168.6Kfo
宝玉@dotey· 11h ago发布

发现一个合法节约 AI 订阅费的方法,以 Claude 为例: 1. 先选最低的那一档,比如 $20 2. 用完了升级下一档,比如 $100 3. 以此类推,最终 $200 通常等你到最后要升级到 $200 的时候可能这个月都要结束了,甚至都不需要。 唯一的问题是操作比较麻烦 这事也许可以找个 AI Agent 比如 Claude Cowork 自动帮我做,快月底了降级订阅,用完了升级

43
2
16
7.8K
Data updated 8h ago
Viral Probability
71%
Predicted Views
48.0K
Est. 200 views for your reply
Mina
7.0Kfo
Mina@Minamoto66· 13h ago发布

哇咔咔咔!今天第一次做了手抓饭!铸铁塔吉锅一锅出!肥肥的羊排特别给力!超满足,吃了大半锅,睡前再玩会儿壶铃减减肥 https://t.co/jFSWMGFwCS

83
2
13
4.1K
Data updated 1h ago
Viral Probability
51%
Predicted Views
9.0K
Est. 100 views for your reply
Guohao Li 🐫
11.7Kfo
Guohao Li 🐫@guohao_li· 13h ago发布

Revealing the answer: Eigent = Eigen + Agent Eigen means “own” in German and is also related to the concept of eigenvalues. Product vision: a fully local AI agent that is open at every level, from the model and agent framework to the full-stack application. So it truly becomes your “own” agent. Research vision: identifying the principal components, the most important “eigenvectors” of the covariance matrix, behind the scaling laws of agents. Personal reason: my 5-year-old cat is named Eigen 🐱

20
0
7
1.9K
Data updated 8h ago
Viral Probability
55%
Predicted Views
4.0K
Est. 100 views for your reply
向阳乔木
80.3Kfo
向阳乔木@vista8· 15h ago发布

写了一个 Skill 调MCP 把DAN KOE这篇神文转成6分钟解读视频。 仔细读有些启发,融合了很多人和经典书中的想法,但原创性跟纳瓦尔比差些。 虽然纳瓦尔也集合了前人的智慧,但第一次读“杠杆”、“幸福”等概念的解读,耳目一新,不知道大家的感受如何。 https://t.co/rzWSh5iEUt

214
32
25
36.2K
Data updated 1h ago
Viral Probability
68%
Predicted Views
69.0K
Est. 100 views for your reply
徐冲浪
122.2Kfo
徐冲浪@cyrilxuq· 15h ago发布

Applovin 被华尔街的capitalwatch盯上了,要在周二晚上发它的做空报告,可以关注一下。 https://t.co/r2HzsYYxXg

43
4
11
13.5K
Data updated 1h ago
Viral Probability
59%
Predicted Views
18.0K
Est. 100 views for your reply
宝玉
168.7Kfo
宝玉@dotey· 15h ago发布

很好的agent在财务领域应用案例👍

89
11
7
25.5K
Data updated 1h ago
Viral Probability
57%
Predicted Views
37.0K
Est. 100 views for your reply
向阳乔木
80.3Kfo
向阳乔木@vista8· 15h ago发布

真心觉得纳瓦尔宝典讲的更接地气,不贩卖焦虑。 https://t.co/5SezfsL8An

225
52
19
20.3K
Data updated 1h ago
Viral Probability
71%
Predicted Views
30.0K
Est. 100 views for your reply
宝玉
168.7Kfo
宝玉@dotey· 16h ago发布

我现在写代码尽量用 Codex,其他任务用 Claude Code。 Codex CLI 虽然不好用,但是模型好,写代码稳,并且 Token 量大。 Claude Code 好用,模型写代码不如 Codex,但是通用任务执行的更好。 这里其实 OpenAI Codex 团队是要反思一下后续走向的,空费了这么好的模型,整天做些华而不实的更新。

277
22
53
60.9K
Data updated 1h ago
Viral Probability
66%
Predicted Views
155.0K
Est. 200 views for your reply
向阳乔木
80.2Kfo
向阳乔木@vista8· 17h ago发布

终于下决心买了一年比较贵的魔法服务:Nexitally 稳定,长期看能省很多时间。

125
4
33
70.1K
Data updated 2h ago
Viral Probability
59%
Predicted Views
159.0K
Est. 300 views for your reply
Ding
141.4Kfo
Ding@dingyi· 17h ago发布

除了 Conductor,又出现两新的 parallel agent(多 agent 并行) 客户端软件。 - https://t.co/Ci3iMxVxhR - https://t.co/iC388PSFgd - https://t.co/yAiPAUE7Xj https://t.co/qVdQM2fpEl

114
13
6
9.8K
Data updated 1h ago
Viral Probability
62%
Predicted Views
13.0K
Est. 100 views for your reply
Bear Liu
111.5Kfo
Bear Liu@bearliu· 18h ago发布

我今天刷X时间太长了。需要缓缓。来张新的桌面 https://t.co/nArO5yJQPS

33
0
5
4.5K
Data updated 1h ago
Viral Probability
48%
Predicted Views
9.0K
Est. 100 views for your reply
宝玉

宝玉

@dotey· 165.5K followers

Cursor 刚发表了篇文章:《Dynamic context discovery》https://t.co/O9trD8o1gy(译文:https://t.co/O1ODpZz3YV),讲述了他们上下文管理的秘密。 之前 Manus 的 Peak 在访谈里面说: > 所以 Peak 说当他们读到一些模型公司发布的研究博客时,心情是“既开心又无奈”。开心是因为这些博客验证了他们的方向,无奈是因为博客里写的东西,基本都是他们早就在做的。 Cursor 这篇文章又曾侧面印证了这个观点😂,不过也不能说 Cursor 是在抄袭 Manus 的技术,只能说 AI Agent 的最佳实践,就是怎么管理好上下文,而管理好上下文,就离不开文件系统。 言归正传,Cursor 这篇文章讲的是“动态上下文发现”,核心就是上下文管理。 给 AI 的上下文,不是越多越好,很多人用 AI,生怕 AI 不知道,怕 AI 记不住,恨不得把整个项目的文档、历史记录、工具说明一股脑全塞进去。 但随着模型变得越来越聪明,预先塞太多信息反而帮倒忙。一来浪费 token(上下文窗口是有限的),二来信息太杂可能干扰模型判断。就像你给一个能干的下属布置任务,不需要把公司所有制度文件都打印出来放他桌上,他需要什么,自己会去查。 这就是 Cursor 提出的"动态上下文发现"(Dynamic Context Discovery)模式:别急着把信息塞给模型,而是让模型在需要的时候自己去找。 【1】让 AI 自己找需要的信息 听起来简单,但具体怎么做呢?Cursor 分享了五个他们实际在用的优化手段,每个都挺巧妙。 场景一:长输出变成文件 问题是什么?当 AI 调用外部工具(比如运行一个 shell 命令或者调用 MCP 服务),返回的结果可能很长——一大串日志、一整个网页的内容。常见做法是截断,只保留一部分。但截掉的那部分,说不定正好是后面要用的关键信息。 Cursor 的做法是:把长输出写成文件,然后给 AI 一个读文件的能力。AI 可以先用 tail 命令看看结尾,觉得需要再往前读。这样既不会塞满上下文,也不会丢信息。 场景二:聊天历史变成可查档案 当对话太长,超过上下文窗口限制时,Cursor 会触发一个"总结"步骤,把之前的内容压缩成摘要,给 AI 一个"新的起点"。 但压缩是有损的。重要细节可能在总结过程中丢失,导致 AI"失忆"。Cursor 的办法是把完整的聊天记录存成文件。AI 拿到的是摘要,但如果它意识到"这里好像漏了什么",可以自己去翻原始记录找回来。 这就像是你给员工发了一份会议纪要,但完整的会议录音也存着——有疑问随时可以回溯。 场景三:按需加载技能 Cursor 支持一种叫"Agent Skills"的扩展机制,本质上是告诉 AI 怎么处理特定领域任务的说明书。这些说明书可以有很多,但没必要每次都全部加载。 Cursor 的做法是只在系统提示里放一个"目录"——技能的名字和简短描述。AI 真正需要某个技能时,再用搜索工具把完整说明拉进来。就像你不会把整个图书馆背在身上,只带个索引卡片就够了。 场景四:MCP 工具的瘦身术 这个场景数据最有说服力。MCP 是一种让 AI 连接外部服务的标准协议,现在很火。问题是,有些 MCP 服务器提供几十个工具,每个工具的描述都很长,全塞进上下文窗口很占地方。更尴尬的是,大部分工具在一次任务中根本用不到。 Cursor 的优化方式是:只在提示词里放工具的名字,完整描述同步到一个文件夹。AI 需要用某个工具时,再去查具体怎么用。 效果怎么样?他们做了 A/B 测试,在调用 MCP 工具的场景下,这个策略减少了 46.9% 的 Token 消耗。接近一半的成本省下来了。 还有个附带好处:如果某个 MCP 服务需要重新认证,以前 AI 就会"忘记"这些工具的存在,用户一头雾水。现在 AI 能主动提醒用户"喂,你的 XX 服务需要重新登录了"。 关于 MCP 工具的优化,Anthropic 官方有一篇文章《Code execution with MCP: Building more efficient agents》https://t.co/Opk5JC6Fvb,思路也是类似的,推荐看看。 场景五:终端会话也是文件 用过 AI 编程工具的人都知道,有时候你想问"我刚才那个命令为什么失败了",但 AI 根本不知道你运行过什么命令。你得手动把终端输出复制粘贴给它。 Cursor 现在把集成终端的输出自动同步到本地文件系统。AI 可以直接"看到"你的终端历史,需要的话还能用 grep 搜索特定内容。对于那些跑了很久的服务日志,这个功能特别实用。 【2】为什么是"文件" 你可能注意到了,Cursor 这五个优化有个共同点:都是把东西变成文件。 为什么是文件而不是别的抽象? Cursor 的说法是: > 我们不确定未来 LLM 工具的最佳接口是什么,但文件是一个简单、强大的基础单元,比发明一套新抽象要安全得多。 这个思路和 Manus 的理念不谋而合。Peak 在他们的技术博客《AI 智能体的上下文工程:构建 Manus 的经验教训》https://t.co/jTT5bEtCaU 里专门讲过:他们把文件系统当作"终极上下文"——容量无限、天然持久、而且 AI 自己就能操作。 Peak 举的例子很形象:一个网页的内容可以从上下文里删掉,只要 URL 还在,AI 随时能把内容找回来。一个文档的全文可以省略,只要文件路径在,需要时再读取就行。这种"可恢复的压缩",比简单的截断或删除聪明多了。 【3】几点思考 一个启示是:上下文工程的核心可能不是"怎么塞更多信息",而是"怎么让模型高效获取需要的信息"。随着模型能力提升,把主动权交给模型是一个趋势。 另一个启示是简单抽象的力量。在技术领域,我们经常迷恋复杂精巧的设计。但文件这个例子提醒我们:那些经过时间检验的简单抽象,往往比看起来高级的新发明更耐用。 模型够聪明的时候,少塞点东西、让它自己找,可能比硬塞一堆效果更好。有时候,less is more。

185
52
17
22.1K
Posted 11d ago · Data updated 11d ago
Reply Suggestion

Est. 600 views for your reply