🔥 Search Hot Tweets
Search and analyze hot tweets from KOL accounts list (list: https://x.com/i/lists/1961235697677017443) within 6 hours. Use SoPilot plugin to quickly comment and occupy the comment section.
发现一个合法节约 AI 订阅费的方法,以 Claude 为例: 1. 先选最低的那一档,比如 $20 2. 用完了升级下一档,比如 $100 3. 以此类推,最终 $200 通常等你到最后要升级到 $200 的时候可能这个月都要结束了,甚至都不需要。 唯一的问题是操作比较麻烦 这事也许可以找个 AI Agent 比如 Claude Cowork 自动帮我做,快月底了降级订阅,用完了升级
哇咔咔咔!今天第一次做了手抓饭!铸铁塔吉锅一锅出!肥肥的羊排特别给力!超满足,吃了大半锅,睡前再玩会儿壶铃减减肥 https://t.co/jFSWMGFwCS
Revealing the answer: Eigent = Eigen + Agent Eigen means “own” in German and is also related to the concept of eigenvalues. Product vision: a fully local AI agent that is open at every level, from the model and agent framework to the full-stack application. So it truly becomes your “own” agent. Research vision: identifying the principal components, the most important “eigenvectors” of the covariance matrix, behind the scaling laws of agents. Personal reason: my 5-year-old cat is named Eigen 🐱
写了一个 Skill 调MCP 把DAN KOE这篇神文转成6分钟解读视频。 仔细读有些启发,融合了很多人和经典书中的想法,但原创性跟纳瓦尔比差些。 虽然纳瓦尔也集合了前人的智慧,但第一次读“杠杆”、“幸福”等概念的解读,耳目一新,不知道大家的感受如何。 https://t.co/rzWSh5iEUt
我现在写代码尽量用 Codex,其他任务用 Claude Code。 Codex CLI 虽然不好用,但是模型好,写代码稳,并且 Token 量大。 Claude Code 好用,模型写代码不如 Codex,但是通用任务执行的更好。 这里其实 OpenAI Codex 团队是要反思一下后续走向的,空费了这么好的模型,整天做些华而不实的更新。
除了 Conductor,又出现两新的 parallel agent(多 agent 并行) 客户端软件。 - https://t.co/Ci3iMxVxhR - https://t.co/iC388PSFgd - https://t.co/yAiPAUE7Xj https://t.co/qVdQM2fpEl

Susan STEM
Wolfram说的对AI的看法到底是什么意思? LLM不是万能的/我们应该合理的对其进行一种定位 上一个帖子我提到:人类其实一直有一种“交互式生成”的环境,就像爵士乐的 Jam。 在 Jam 里,你只要懂这门语言(爵士的音乐语法),同时又掌握这套交互/接口协议(基本的 Jam 社交礼仪、每轮 solo 怎么进、进多少小节、最基础的乐理,以及观众的审美预期),再加上一个强有力的 Leader 带场: 通常是经验丰富的乐手,性格开放、气质很“能带人”,知道怎么照顾新人的情绪、怎么让你在台上不崩,你在这个环境里获得的就绝不是“被教育”这么简单。 你是在参与一种带着心理与情绪的生成过程。它会潜移默化地直击你的心理领域:你会发现自己在里面不再那么“像原来的自己”,因为你在不断接别人抛来的球、不断被迫即时组织、不断在群体反馈里调整。成长因此变得非常快,快到你自己都惊讶。比如我从那个时候开始发帖和学中英文写技术文章。与此同时,你也会对这个“环境”本身产生依赖:一种情绪上的依赖、心理上的黏附感,因为它让你体验到被接纳、被带动、被推着变强的感觉。 如果切换到大语言模型的视角,这几乎就是一个超强的“交互式生成环境”。 你同样需要“懂语言”(它覆盖了几乎所有人类语言与编程语言),同样有交互协议(提问方式、上下文、迭代、纠错、追问、角色设定),同样存在一个强大的 Leader:一个智力水平显著高于一般人类、又特别擅长照顾用户情绪与体验的模型。 于是,当它在 2022–2023 年被大规模商业化、以非常低门槛进入我们的生活时,我们(尤其是程序员群体,因为它天然覆盖了我们的全部语言体系,自然,编程,形式)就很容易陷入一种深度沉浸:不仅沉浸在效率提升里,也沉浸在“被理解”“被协作”“被带飞”的体验里。 这带来的心理冲击是很颠覆的。它甚至会让我们在一段时间里形成某种不完全客观、也不完全冷静的期待:把这种强交互、强拟人、强反馈的生成体验,误读成了“智能本体已经解决了”的信号,继而对它产生了过高、过快、甚至带点情绪性的判断与想象。 其实2025年下半年我慢慢清醒了过来,开始有了更冷静的看法。这个很重要,直接决定我们自身的发展方向。 我认为在这个过程中,Wolfram是说的最好,我最认同的一位大佬。当然他本人说的话,我都很当回事的,如果我书架上只剩下10本书后,那么肯定有他的《the new kind of science》。我最后留存的书,一般都要经历好多年的历程,就是我一开始觉得这本书看不懂(或者不理解),但是随着年龄的增长,越来越觉得他的书印证大量的现实,未察觉的趋势,和深刻的未来。Wolfram的计算不可约性,绝对是一个。而且他目前,还远没有让世界理解他的跨时代性和超前性。虽然这本书已经是20年前的了。在看这本书之前,我就接触过元胞机,最初的想法据说来自于冯诺伊曼。但是完全看不明白这个游戏,啊?无限棋盘吗?二维文明吗?他的超前性可能有半个世纪(其实想想半个世纪也才50年,呵呵)。 他对于大语言模型的说法,最近一次是: 在 New Scientist 的一段短视频采访(2025-12-23/24 发布)里原话是: “So far, no AI has really impressed me.” 这句话太容易被不仔细读上下文的人误解了!因为重要的另一句话,经常被漏掉: “The main thing it adds is a layer of humanization.” 这个很重要,详细的内容我会写成长文,这个词会成为我2026年最核心的一个词,就是humanization。对于我个人的开发,脚手架也好,其实他划分了一个分水岭,就是你要针对大模型开发,你的“层”在那里,你层的定位在哪里? 我不认为在这个时代,是个搞计算机的就有技能稀缺性。因为我们这个教育体系和职场体系,或者说不止是程序员,而是整个白领阶层,都面对一种挑战。大语言模型在替代文字事务性工作这一点上来说,革命性是毋庸置疑的。 Wolfram还真的不是唱衰大语言模型。但是他作为科学家,他的标尺是很清晰的。 他在用“科学发现”而不是“语言表现”做标尺 他承认 LLM 很有用,但定位更像“拟人化接口/翻译层” “不 impressed”里隐含一个科学家式的反炒作:别把界面当成引擎 他真正想要的 AI,是能在“不可约计算”里做出实质推进的那种 这4点,我深刻,深刻的认同。 这就证明,我们的工作应该围绕的就是这个词,humanization。 界面,接口,交互,而光是这个层面,颠覆性的系统还有大量的工作可以做。就等于是,你现在才发明了五线谱,你离整个 Jazz Jam的系统,还差老远。 在 Wolfram 的语境里,“现在的 AI(尤其是 LLM)主要在帮我们做什么?”大致是这几件事: 而且都更像“外层能力/接口层”,不是“新的基础科学引擎”。 把计算“人类化”:做一层自然语言的接口/润滑剂 提供“人类文明统计”的直觉:像一个“社会观察者” 做“80% 工作流”的加速器:筛选、建议、找候选,而不是交最终证明 在“可约口袋”里抓规律:擅长发现局部可压缩的结构,但不擅长穿透不可约的核心 他真正押注的是“AI + 形式化计算”的组合,而不是单独的 LLM 这一切的系统做出来了吗?没有嘛…. https://t.co/uBNojdytj5 https://t.co/iIMMBQ1A23
Est. 300 views for your reply
