🔥 Search Hot Tweets
Search and analyze hot tweets from KOL accounts list (list: https://x.com/i/lists/1961235697677017443) within 6 hours. Use SoPilot plugin to quickly comment and occupy the comment section.
哇咔咔咔!今天第一次做了手抓饭!铸铁塔吉锅一锅出!肥肥的羊排特别给力!超满足,吃了大半锅,睡前再玩会儿壶铃减减肥 https://t.co/jFSWMGFwCS
写了一个 Skill 调MCP 把DAN KOE这篇神文转成6分钟解读视频。 仔细读有些启发,融合了很多人和经典书中的想法,但原创性跟纳瓦尔比差些。 虽然纳瓦尔也集合了前人的智慧,但第一次读“杠杆”、“幸福”等概念的解读,耳目一新,不知道大家的感受如何。 https://t.co/rzWSh5iEUt
我现在写代码尽量用 Codex,其他任务用 Claude Code。 Codex CLI 虽然不好用,但是模型好,写代码稳,并且 Token 量大。 Claude Code 好用,模型写代码不如 Codex,但是通用任务执行的更好。 这里其实 OpenAI Codex 团队是要反思一下后续走向的,空费了这么好的模型,整天做些华而不实的更新。

向阳乔木
作者Tal Raviv,对 Claude Code 的"压缩"功能很好奇。 就是那个能让对话持续很久不用重新开始的功能。 他直接打开 Claude Code 的"大脑"看了看。 具体怎么看呢: 1. 打开你的用户根目录 2. 按 Command+Shift+.(Mac)显示隐藏文件夹 3. 找到 ~/.claude/projects/ 这个路径 4. 用 Cursor 或 VSCode 打开你的项目文件夹 5. 装个 JSONL Gazelle 插件(开源的) 6. 打开最新的 JSONL 文件,每一行就是一条对话消息 "压缩"不是删除,是做标记 当你在 Claude Code 里运行压缩命令时,你以为它会把旧对话删掉,只留个摘要对吧? 错了。 它做的是:在对话文件里创建一个"压缩边界",写下之前发生了什么的总结,但完整的原始对话还在那儿。 就像你在一本很厚的笔记本里夹了个书签。 书签上写着"前面讲了什么",但前面的内容一个字都没删。需要的时候,随时能翻回去看细节。 有两点挺有意思: 第一,记忆管理是个大问题。 AI 对话工具要保持长时间的连贯性,不能每次都从头开始。 但上下文窗口是有限的,怎么在有限空间里保留最重要的信息,这是个技术活。 第二,好的设计是平衡的艺术。 Claude Code 的压缩机制既保证了效率(通过摘要),又保留了完整性(原始对话还在)。 这种"既要又要"的解决方案,往往比非黑即白的选择更有价值。 最后说一句,Anthropic 之前展示过 Claude Opus 能在单个对话里玩 75 分钟以上的《卡坦岛》游戏,靠的就是不断编辑上下文,而不是重新开始。
Est. 400 views for your reply
