🔥 Search Hot Tweets
Search and analyze hot tweets from KOL accounts within 6 hours. Use SoPilot plugin to quickly comment and occupy the comment section.
已把所有个人参与的项目,文档,博客,Notion内容本地化,使用ClaudeCode➕Obsidian ➕GitHub➕iCloud同步(方便手机阅读)管理。 目前的工作流包括 - 每天用Claude chrome爬取linear, tweet内容看是否需要跟进 - 自动拉取 @LimitlessAI lifelog 看是否有值得写作输出的话题 - 列举值得回复的推文 - 个人博客的内容管理 (改动后Push自动部署)
查理·芒格谈如何让你的生活变得更好:个人自律,个人道德,好伙伴,好想法。就这些简单的东西。 如果你想从查理·芒格那里带走一句话,那就是:如果听起来很老套,那它往往就是对的。那些古老的美德,全都管用。 https://t.co/yhsxnuReUI
为什么要 Study in Public 因为 Luck Surface Area https://t.co/aWtA2ahNV1
🔥国际顶流时尚杂志封面,这档次一下子就拉起来了哈哈! 改了下走红毯版本跟中文标题,Nano Banana Pro 直出 4K 高清,一张图都快 20M 了😍 提示词👇 { "meta": { "system_instruction": "Create a high-end fashion magazine cover. Use the uploaded face for strict identity preservation.", "aspect_ratio": "3:4", "quality": "ultra-detailed", "resolution": "8k", "style": "Met Gala red carpet event, direct flash photography, glamorous celebrity candid" }, "reference_usage": { "instruction": "Strictly preserve facial identity (eyes, nose, mouth) from the uploaded reference. Body proportions should be model-like and tall.", "focus": "100% Face Identity Match" }, "scene": { "location": "The Met Gala Red Carpet (New York)", "environment": [ "chaotic background with paparazzi cameras", "red velvet ropes", "bursts of camera flashes (bokeh orbs)", "dark night sky contrast" ], "atmosphere": "electric, exclusive, superstar energy" }, "lighting": { "type": "Direct Flash (Paparazzi Style)", "effect": "High contrast hard light, glistening skin, sharp shadows behind the subject, bright reflections on dress" }, "subject": { "face": { "expression": "Seductive confident smile, looking back over shoulder", "makeup": "bold red lip, sharp contouring, glowing highlighter" }, "pose": { "action": "walking away but turning head 45 degrees to look at camera", "body": "elegant posture, back slightly arched", "hair": "blowing dramatically in the wind" }, "outfit": { "dress": "Futuristic liquid-metal silver gown", "details": "backless design, reflecting the camera flashes, sequin texture", "jewelry": "Diamond choker, large stud earrings" } }, "composition": { "layout": "Magazine Cover Layout", "branding": { "main_logo": "Large bold 'Harper's BAZAAR' logo at the top in white or silver", "text_elements": [ "Include Chinese text subtitles on the side", "Small text: '红毯之夜' (Night of the Red Carpet)", "Headline: '独家直击' (Exclusive Look)", "Bottom text: '年度风尚大典' (Fashion Awards of the Year)" ] } }, "vibe": "Luxurious, expensive, A-list celebrity, glossy magazine finish", "negative_prompt": "low resolution, ugly hands, distorted face, missing logo, text error, watermark, casual clothing, daylight, soft lighting" } @miilesus You did a great job!🥳
喜欢这个,比 CodexBar 好。https://t.co/oi3lDQnEz3 https://t.co/INLmWDHzqi
AI时代一个最简单的提效建议:把自己数字化。 从去年gemini2.5pro超过gpt4o的时,我就开始维护一份个人档案。我将过往20年的人生经历口述给AI,形成了一份1.5万字的个人传记。 每当一个新AI上线,我做的第一件事就是让他给我人生建议。几轮对话下来我立刻就能知道这个AI的上下文能力以及智力如何。 另一个好处,你日常处理的很多事情都是和你个人相关的,与其依赖ChatGPT混乱的记忆系统,还不如每次都把自己精炼过的信息传给GPT,或者像我现在一样传给没有记忆但最好用的Google AI Studio。 你需要做的就是在外部维护这样一个传记(建议以陈述事实为主),外加一个你现实处境的清单(我包括了我当前的身体信息、学习工作情况等),这两个维度的个人信息。 只要你维护历史、当下两个维度的文档,你就可以不受模型记忆限制,自由切换使用当下最强的模型帮你解决个人问题了。
ListenHub 2026 新年五折大促最后3小时 错过真的要等很久 别怪我没提醒 😂 买完年费会员一定要加我进 VVIP 群一起学习交流,共同进步! (真的每次一结束就好多人来问怎么不提醒 https://t.co/1NGrS4328p
为什么有人运气很好总有贵人相助? 李笑来总结的12条贵人法则: 1. 乐观的人更容易成为他人的贵人。 2. 贵人更容易遇到贵人。 3. 能帮助他人进步的才是真正的贵人。 4. 优秀的人、值得尊重的人更容易获得帮助。 5. 乐于分享的人更容易获得帮助。 6. 不给他人制造负担的人更容易获得帮助。 7. 不耻于求助的人更容易获得帮助。 8. 求助时不宜仅用金钱作为回报,帮助他人时不宜收取金钱回报。 9. 贵人不一定是牛人,贵人更懂得“以和为贵”“独贵贵,不如众贵贵”。 10. 一个人能成功,往往是因为大量的人希望看到他成功;反之,若没人希望他成功,便难获贵人相助。 11. 正在做正确事情的人,更容易获得贵人的帮助(得道多助)。 12. 活在未来的人更容易遇到贵人,因为别人能在他身上看到未来。
这是什么神仙账号, 一年一条推,一条 1000w 浏览... @grok https://t.co/gcE9gL8b4x
我认为创作者们应该警惕一个说辞,叫做:劣币驱逐良币 最近身边很多人跟我用到过这个固定短语,这背后有一些未经仔细思考的假设 比如:我的同行们宣称 3 天就可以治好抑郁症,我的同行们宣称跟着他买房一定赚钱 所以:我的同行们流量比我大,我讲解治疗抑郁症的底层逻辑,讲解购买资产的底层逻辑,我作为一个好人反而就没有流量 我的看法是:你的同行们的确是劣币,但你讲的这个东西也不是良币 你所谓的治疗病情的逻辑,以及购买资产的逻辑,是解决问题的手段 你至少应该先用10秒钟给别人讲清楚,这个手段能帮助他们实现什么样的目标(这个叫良性的爆款短视频开头) 才值得别人用10分钟的时间去痛苦学习这些思维逻辑(这是为了实现目标不得不支付的成本,而不是收益) 当你的内容里通篇都是那些你自认为有用的知识传递,全部都是解决问题的手段,而不预先明确告知这可以实现什么目的的时候 你的内容既不是劣币,也不是良币 因为不会被算法传播出去的内容,根本不是“币”
难怪这两天啥也不想做 今天果然病倒了 浑身疼,没力气 大概率是甲流了
跟朋友聊天,从中午到下午什么都聊。其中聊到朋友之间关系的流动性。 很喜欢他的描述:“朋友关系是动态的筛子,时间会把不适合再做你朋友的人给筛选掉。而每个人都是一个个原子,每个人都想去拥抱原子核。” 我问他“原子核是什么?” 他说“是你在社会关系中的总和” 朋友关系,家人关系、伴侣关系、合作关系、与自己的关系也如此。这个原子核在不同人生阶段,每种关系的占比不同。但这个原子核不是静止的,在不同的人生阶段,每种关系的占比会重新分配。 朋友的关系是流动的,可能初高中的死党,当年每天形影不离,后来因为不同的人生选择已经不再有共同话题。只是彼此的原子核发生了重组,不再处于同一个轨道。现如今搭子文化逐渐盛行,饭搭子、健身搭子、旅行搭子,不需要深度绑定,是因为在陌生城市里总想找一个跟自己有共同经历的伙伴。 而在城市之中,我们都是一粒沙子,走过一个城市带走一些沙子再带来一些沙子。 万物都会穿过你,但风暴带不走你。你始终是一颗小而沉甸甸的沙粒,是拥抱原子核的原子。当获得能量,原子会跳到更高的轨道,跟曾经的朋友说再见,是我们各自跃到了更适合自己的位置。
推特的弱智kol们又开始传播美股开户谣言了,真的绷不住了,什么过海外直接扫出来你身上多少美股没交税,什么信用卡账单过海关识别给你抓回来,真这么nb,pltr应该归零,美国国防部应该来采购深圳海关的数据软件
Claude Code 的创建者 Boris Cherny 公开了他的 CC 使用方法。 这套流程核心的两个思维方式比较有意思: 复利思维和验证 复利思维体现在 CLAUDE. md 不是一次性写完的文档,而是团队在日常工作中持续积累的知识库。每次代码审查、每次发现问题,都在让这个文件变得更好。 Boris 强调验证能让质量提升 2-3 倍,这其实暴露了当前 AI 编程的一个核心问题:AI 很会写代码,但不一定知道代码是否真的能用、用户体验是否好。 总结一下做个笔记👇 ## 多实例并行:同时运行 15-20 个 Claude Boris 的电脑上至少跑着 15 个 Claude 实例。终端里开 5 个标签页,每个标签编号 1-5,用 iTerm2 的系统通知功能知道哪个 Claude 需要输入。 浏览器里还会同时开 5-10 个 claude. ai/code 页面。他会在终端和网页之间来回切换,用 & 符号把本地会话转到网页,或者用 --teleport 在两边传送。这种并行工作方式让他能同时推进多个任务。 ## 模型选择:全程 Opus 4.5 with thinking Boris 只用 Opus 4.5,而且开着 thinking 模式。他的理由很直接:虽然 Opus 更大更慢,但因为理解能力强、工具使用准确,最后反而比用小模型更快。 不需要反复纠正和引导,一次就能做对,这才是真正的效率。 ## 团队知识库:共享的 CLAUDE .md 文件 Claude Code 团队有一个共享的 CLAUDE. md 文件,提交到 git 里,整个团队每周都会往里面加内容。 这个文件的逻辑很简单:只要看到 Claude 做错了什么,就写进 CLAUDE. md,下次 Claude 就知道不要这么做。相当于把团队的代码规范和踩坑经验都记录下来,让 AI 助手也能遵守。 ## 代码审查集成:@.claude 标签触发改进 在代码审查时,Boris 会在同事的 PR 上 @.claude,让 Claude 把发现的问题加到 CLAUDE. md 里。这是通过 Claude Code 的 GitHub action 实现的(用 /install-github-action 安装)。 这就是他们版本的"复利工程"。每次代码审查都在让 CLAUDE. md 变得更好,而 CLAUDE. md 又让后续的代码质量自动提升。 ## Plan 模式:先规划再执行 大部分会话都从 Plan 模式开始(按两次 shift+tab 进入)。Boris 会跟 Claude 来回讨论,直到计划让他满意,然后切换到自动接受编辑模式,Claude 通常能一次性完成。 一个好的计划就是成功的一半。 ## Slash Commands:内部循环工作流自动化 Boris 把每天重复做很多次的"内部循环"工作流都做成了 slash commands。这些命令保存在 .claude/commands/ 目录下,提交到 git。 这样就不用每次都重复输入相同的提示词,而且 Claude 自己也能使用这些命令。比如团队有一个 /verify 命令用来验证更改。 ## Subagents:常见工作流的自动化 Boris 经常用几个 subagents:code-simplifier 在 Claude 完成工作后简化代码,verify-app 包含了端到端测试 Claude Code 的详细指令。 Subagents 本质上就是把最常见的工作流自动化,让每个 PR 都能跑一遍标准流程。 ## PostToolUse Hook:自动格式化代码 团队用 PostToolUse hook 自动格式化 Claude 生成的代码。Claude 通常生成的代码格式就挺好,hook 只是处理最后 10%,避免后面 CI 报格式错误。 ## 权限管理:预允许而非跳过 Boris 不用 --dangerously-skip-permissions。他用 /permissions 预先允许那些在他环境里确定安全的常见 bash 命令,避免不必要的权限提示。 这些配置大部分都保存在 .claude/settings.json 里,跟团队共享。 ## 工具集成:Slack、BigQuery、Sentry Claude Code 会使用 Boris 的所有工具。通过 Slack 的 MCP server 搜索和发布消息,用 bq CLI 跑 BigQuery 查询回答分析问题,从 Sentry 抓取错误日志。 Slack MCP 的配置文件 .mcp.json 也是提交到 git 跟团队共享的。 ## 长时间任务:后台代理和 Stop Hook 对于特别长的任务,Boris 有几种方法: 让 Claude 在完成时用后台代理验证工作 用 agent Stop hook 更确定性地做验证 用 ralph-wiggum 插件(Geoffrey Huntley 最初想出来的) 在沙盒环境里,他会用 --permission-mode=dontAsk 或 --dangerously-skip-permissions,让 Claude 能持续工作不被权限提示打断。 ## 最关键的一点:给 Claude 验证反馈 Boris 说最重要的是给 Claude 一个验证工作的方法。有了这个反馈循环,最终结果的质量能提升 2-3 倍。 Claude Code 团队用 Claude Chrome 扩展测试每个改动。Claude 会打开浏览器,测试 UI,然后迭代直到代码能跑、用户体验也好。 验证方法因领域而异。可能就是跑一个 bash 命令,或者跑测试套件,或者在浏览器或手机模拟器里测试应用。但一定要投入精力把这个做扎实。
元旦三天,本想给 YouMind 用户写一封年度总结与展望文章。但不知道为什么,每次开始写,满脑思绪,就像泥鳅一样游走,抓不住。 创业很好玩。最有意思的,就是通过创业,更加清楚了自己的优劣势是什么,以及究竟对什么在乎,对什么不在乎。 比如 YouMind 究竟想做什么。无数个夜晚,潜意识里都在想这个事。最后发现,我并不是想做内容创作工具,而是想做新时代的内容消费平台。不是想了无数个晚上才有这个想法,而是一开始想从大厂出来创业时,潜意识里就是这个想法。 我很尊重抖音等内容平台,包括小红书,有段时间让我觉得很惊艳。但不知道为什么,我越来越不喜欢这两个平台。同时 X 上的各种信息,以及国内各种其他内容平台,都在迅猛发展。但总觉得这里有个悖论:很多 X 和小红书上的内容博主,真实接触后,却告诉我,把这些平台当发布平台就好,不用去看。这里包括好几个我有接触的百万博主。 人什么情况下,会去一个平台大量发布内容,但并不会自己去消费这些平台的内容。我想到的是厕所。 不对劲。非常不对劲。 我不知道 YouMind 能否改变一些东西。但我很清楚知道的是,YouMind 想做的是厨房。在厨房里做的东西,一是不会太多,不然吃不完,二是会尽量追求好吃。家里厨房做的东西,要么是给自己吃的,要么是给朋友吃的。 成为 AI 时代的内容厨房,就是 YouMind 的愿景。 没什么人信这个故事,导致事情很难。有趣的,厨房的愿景,也让整件事,有趣好玩起来。 万物建造,都有规律。急不得,快不了。也不能不急,不能老延期。创业的洪流里,会看见自己的着急和贪心。一朵朵摘下来,都能炒碗蘑菇拌肉了。 元旦的杭州,天气很好。
杨立昆离开 Meta 之后参加访谈 火力全开,狂喷小扎 说小扎乱搞bench模型造假 而Wang也很遭研究员反感 更重要的还是他坚信大语言模型已经到头… 感觉 Meta 不是个好归宿啊 https://t.co/AwXD1IFRII
有人将费曼学习法做成了个提示词 这个提示词可以 1. 解释概念 2. 质疑假设 3. 面对知识空白 4. 将学习看作科学实验 具体 Prompt 你们去看吧 https://t.co/W3hLjRzGUu https://t.co/wJdjlm1AkI
Andrej Karpathy 直接展示如何通过提示在 30 分钟内构建应用。 https://t.co/f8CnUjBldF
看到越来越多的公司基于 claude code 开发自己公司研发工作流: https://t.co/517YLlTPpm
26 年准备重回 A 股,准备了 5000 块钱的本金,看看什么时候亏完 🫣 https://t.co/buQTLVE336
有朋友问我目前订阅最长的AI产品是什么?答案可能出乎意料,不是Cursor而是Midjourney,从24年就开始持续订阅从来没有断过。 一个月10美金,能让我感受到人类的极致创造力和美学。平时就算翻一翻这些视频和照片也是享受。 https://t.co/D8teloQ0MD
𝕏 Premium+ 的赚钱效果越来越好啦 收入分成再上一个台阶,从月入70刀,到150刀,看这个趋势要冲击 360 刀一个月了 拿到收入分成的推友建议开通 Premium+ 我已经在考虑什么时候开通金标了 https://t.co/Ji9bJoMz4S
老马这个月给了 500 美元,不错啊,比低保多不少了 https://t.co/Y4v5wKUb6N
Obsidian 的这个 Terminal 插件好用啊! 直接把Claude Code搬到Obsidian,也不需要安装Copilot工具了。 支持分屏,添加文本URL,跟Claude 对话就行。 https://t.co/Pf7yINKURx
查询 giffgaff 号 是否正常 使用giffgaff官方自带的查询号码的办法,发短信 NUMBER 到 2020 或 43430,等待回复即可看到你的号码。 https://t.co/gAZdvQGdgI
开始不断有人做特定领域的 skill 了 比如说这个包含 生物信息学 基因组学 计算生物学 科学可视化 科学计算等领域 真的是各行各业都可以用 Claude Skill https://t.co/7u2fNQURh4
“自信来自准备。” —— 科比·布莱恩特 https://t.co/mp7VdcMcO5
信息过载?写个工具每天只看真正值得的内容。 写了一个Claude Skill,每日抓取更新Newsletter,HN、producthunt的新内容。 9点推送一个整理好的文档,点击用Obsidian查看。 打✅ 说明阅读完了,删除。 打⭐️说明不错,自动归档。 后续可以让Skill自动把打星号的写成文章,选择性发公众号。
This is a short tutorial on how to create a “behind-the-scenes selfie” video. The overall workflow is fairly simple: 1. Generate multiple “on-set” style images 2. Use first- and last-frame generation to create video clips, then stitch them together The full prompts and step-by-step process are shared in the comments 👇
21天之前开始写公众号 现在才559个粉丝了,太难了 公众号就是死胡同,死气沉沉的 https://t.co/OjiAQjViIA
Claude Skill案例:论文自动解读+配图,直接发公众号 Skill的好处就是可以持续迭代优化。 经过 5 轮优化,一句话解读PDF论文Skill越来越好用。 论文自动下载,转Markdown,自动截图,AI理解内容写文章,即梦生图插入配图。 然后阅读学习,微调排版,一键发公众号。
把AI变成新时代的点读机。 另外,这个便携手机支架设计不错,就是材料还是有点次,但很小巧方便。 https://t.co/SSw04YchIZ
有个非常重要的事情,很多人可能还不知道 Nano Banana Pro 其实是 Gemini 3 的一个微调版本 也就是说,🍌 是自带思考能力的,只是很多网站把这种能力给负优化了 看到大家先用 Gemini 搞提示词,再用 Banana 生成... 完全是多了一道工序 不如直接把提示词丢到 Labnana 里,让 AI 自己改提示词后再生成 Labnana 的输入框,是个智能的指令输入框,不只是一个图片提示词接收器
这篇可能是最权威的 Claude code 教程了, 几乎是榨干 200 刀 max,很多人傻傻的只开一个窗口,在那里傻等。 更牛逼是他们又在网页版又同时开 10 个 Claude 任务。 全文: https://t.co/r0Cvty9J3Y https://t.co/0j5ck2wK2S
Boris 的 9 条 Claude Code 实战技巧:原来高手的配置这么“朴素” Boris Cherny 在 Anthropic 内部有个绰号:Claude Code 之父。他最近在 X 上很活跃,于是很多人问 Boris:你自己到底怎么用 Claude Code?他刚在 X 上分享了 9 条实战技巧。 没有你想象的那么多技巧,每一条都朴实无华。 【1】核心理念:Claude Code 的最佳实践并没有标准答案 Boris 开场就说: > My setup might be surprisingly vanilla! Claude Code works great out of the box, so I personally don't customize it much. > 我的配置可能出乎你意料地“原装”。Claude Code 开箱即用效果就很好,我个人没做太多定制。 也能理解,那些最佳实践,比如 Skills、Plugins,作为 Claude Code 开发者,他们早就把这些最佳实践作为功能内置了。 使用 Claude Code 没有唯一正确的方式。团队故意把它设计成可以随便折腾的样子,你想怎么用、怎么改、怎么魔改都行。Claude Code 团队内部每个人的用法都完全不同。 所以没必要去费力找“最佳实践”,适合自己的节奏最重要。 【2】多 Agent 任务并行:同时开十几个 Claude Boris 的日常是这样的:终端里开 5 个 Claude Code 实例,标签页编号 1 到 5,开着系统通知,哪个需要输入就跳过去处理。 同时,他还在 https://t.co/sbZmtUzjRY 网页版上跑 5 到 10 个任务。终端和网页可以互相“交接”:用&符号把本地会话转到网页,或者用--teleport 在两边来回切换。 他每天早上和白天会从手机 Claude 应用上启动几个任务,晚点再回来看结果。 这种“多线程”工作方式的核心逻辑是:Claude Code 擅长自主执行,很多任务不需要你盯着。你启动任务、给个方向,让它跑着,自己去忙别的。等它需要你确认的时候再切回来。 这跟传统的“人敲一行代码、AI 补几行”完全是两种节奏。但这也对使用者有更高的要求,你需要擅长给 Agent 分配任务,并且能随时在多个任务之间切换。对于习惯了自己开发,同时只有一个任务进行的传统开发模式来说,是个很大挑战。 惭愧的说,虽然我也常用 Coding Agent,还是不习惯太多任务同时运行,今年要加强这方面的练习。 【3】模型选择:为什么用 Opus 而不是更快的 Sonnet Boris 说他所有任务都用 Opus 4.5 加上 thinking 模式。这是他用过最好的编程模型。 有人会问:Opus 不是比 Sonnet 更大、更慢吗?Boris 的回答是:虽然单次响应慢一点,但你需要纠正它的次数少得多,工具调用也更准确,最终算下来反而更快。 这点其实我一直很认同,写代码这种事不能求快,还是得质量高,如果一个快模型需要你来回纠正三次,不如用个慢模型一次搞定。时间不只是模型响应时间,还有你的注意力和精力成本。 唯一的问题就是 Opus 成本更高。 【4】https://t.co/k5gfrsJiDu:团队共享的“项目记忆” https://t.co/k5gfrsJiDu 是 Claude Code 的一个特殊配置文件,放在项目根目录。每次启动 Claude Code,它会自动读取这个文件,把里面的内容当作“背景知识”。你可以理解为:这是你给 AI 写的项目说明书,告诉它这个项目的架构、规范、注意事项。 Boris 团队的做法是:整个 Claude Code 仓库共用一个 https://t.co/k5gfrsJiDu,提交到 Git 里,所有人一起维护。每周都有人往里加东西。规则很简单:每次看到 Claude 做错了什么,就把“别这样做”写进去,下次它就知道了。 更有意思的是,他们在代码审查时也会用到这个机制。Boris 会在同事的 PR 里@.claude,让 Claude 把某条新规则加到 https://t.co/k5gfrsJiDu 里。这是通过 Claude Code 的 GitHub Action 实现的。 Dan Shipper 管这种做法叫“复利工程”:每一次纠错都变成团队资产,让 AI 越来越懂你们的项目。 如果你还没用过 https://t.co/k5gfrsJiDu,或者没像他们这样频繁更新规则,强烈建议试试。最简单的起步方式是运行/init 命令,Claude 会自动分析项目结构,生成一个初始版本。然后你边用边补充,看到不对的地方就加进去。 【5】Plan 模式:先想清楚再动手 Boris 说,他大多数会话都从 Plan 模式开始。在 Claude Code 中按两下 Shift+Tab 就能切换。 Plan 模式下,Claude 不会直接改代码,而是先给你一个执行计划。你可以来回讨论、修改计划,直到满意为止。然后切到自动接受模式,Claude 通常能一次性完成。 “好的计划真的很重要”,这个习惯其实是把软件开发的经典智慧搬到了 AI 协作里:先设计再编码。很多人用 AI 写代码的问题是直接开干,结果方向错了返工成本很高。花几分钟对齐计划,能省几小时的返工。 【6】自动化重复工作:斜杠命令和子 Agent Boris 有几个每天要用几十次的操作,他把它们做成了斜杠命令。比如"/commit-push-pr",一键完成提交、推送、创建 PR。 斜杠命令本质上是 Markdown 文件,放在.claude/commands/目录下。你可以用自然语言写指令,还能嵌入 bash 脚本预先获取一些信息,减少模型来回调用的次数。这些命令可以提交到 Git,整个团队共享。 除了斜杠命令,他还用子 Agent(https://t.co/bQLePyyqmQ)。子 Agent 是独立的 Claude 实例,专门干某类活。比如他有个 code-simplifier 子 Agent,在主 Claude 完成工作后自动简化代码;还有个 verify-app 子 Agent,专门负责端到端测试。 这两个功能的共同点是:把你反复做的事情固化下来,让 Claude 自己调用。你不用每次都重复解释,也不用记住各种命令细节。 使用 PostToolUse Hook 来格式化 Claude 生成的代码。Claude 通常能自动生成格式良好的代码,而这个 Hook 会处理最后 10% 的代码,以避免后续在持续集成 (CI) 过程中出现格式错误。 【7】安全与集成:权限配置和外部工具 Boris 不用--dangerously-skip-permissions 这个“危险”选项。相反,他用/permissions 命令预先批准一些常用的安全命令,避免每次都弹确认框。这些配置保存在.claude/settings.json 里,团队共享。 更强大的是 MCP 服务器集成。MCP 是 Model Context Protocol 的缩写,是 Anthropic 推出的让 AI 连接外部工具的标准协议。通过 MCP,Claude Code 可以直接: - 搜索和发送 Slack 消息 - 跑 BigQuery 查询回答数据问题 - 从 Sentry 拉错误日志 Boris 团队把 Slack 的 MCP 配置也提交到了仓库,所有人开箱即用。 这意味着 Claude Code 不只是个编程工具,而是能调用你整个工具链的“全能助手”。 【8】长任务处理:让 Claude 自己验证 对于跑很久的任务,Boris 有几个策略: 一是让 Claude 完成后自动用后台 Agent 验证结果。你可以在提示词里要求,也可以用 Stop Hook 更确定性地触发。 > 注:Hooks 是 Claude Code 的"钩子"机制,让你在 Claude 执行操作的特定时刻插入自定义逻辑。你可以把它理解为"触发器":当某个事件发生时,自动执行你预设的命令或脚本。 > Stop Hook 就是在 Claude 完成响应、准备交还控制权时。 > 相关文档:https://t.co/jPf1XgjoUV 二是用 ralph-wiggum 插件 https://t.co/4MJUGB0zEN。这是一个有趣的设计:“Ralph 本质上就是一个 Bash 循环”:想象一个简单的死循环(while true),它不停地把同一个任务说明书(提示词文件)喂给 AI 智能体,让它一遍又一遍地改进工作,直到彻底完成。 三是在沙箱环境里用--permission-mode=dontAsk 或--dangerously-skip-permissions,让 Claude 不被权限确认打断,自己跑到底。 核心思路是:既然是长任务,就别让它等你。给它足够的自主权和自我纠错能力。 【9】最重要的一条:给 Claude 验证能力 Boris 把这条放在最后,说这可能是获得好结果最重要的因素。 如果 Claude 能验证自己的工作,最终产出质量能提升 2 到 3 倍。 他举了个例子:他们提交到 https://t.co/sbZmtUzjRY 的每一个改动,Claude 都会用 Chrome 扩展自己测试:打开浏览器、测试 UI、发现问题就迭代,直到功能正常、体验合理。 验证方式因场景而异。可能是跑一个 bash 命令,可能是跑测试套件,可能是在浏览器或手机模拟器里测试应用。形式不重要,重要的是:让 AI 有反馈闘环。 这个道理其实很朴素。人类工程师也是靠“写代码—测试—看结果—修改”这个循环来保证质量的。AI 也一样。如果它只能写不能测,就像闭着眼睛做事,质量全靠运气。 Boris 的建议是:投入精力把验证机制做扎实。这是回报率最高的投资。 【10】高手用剑无招胜有招 武侠小说里面,高手用剑没有那么多花里胡哨的招式,无招胜有招。Boris 没有炫耀复杂的定制配置,没有神秘的私藏提示词,用的就是官方功能。区别在于:他真正理解这些功能背后的逻辑,然后把它们组合成高效的工作流。 并行工作是因为 Claude 能自主执行;用 Opus 是因为综合效率更高;https://t.co/k5gfrsJiDu 是把纠错变成资产;Plan 模式是先想清楚再动手;斜杠命令和子 Agent 是自动化重复劳动;验证机制是给 AI 反馈闭环。 如果你刚开始用 Claude Code,不必急着研究各种高级配置。先把基础用好:学会并行,学会规划,学会积累 https://t.co/k5gfrsJiDu,学会给 AI 验证手段。 等你真正遇到瓶颈了,再去折腾那些花活不迟。
Double Shot | Concept, SAEs, DLCM 两篇不同方向的paper,但启发了同样的思考: 什么是 concept ? 想象人类的语言有 X, Y 坐标轴。 X 是时序,随着时间流逝,我们将词语串联成句子。 Y 是意义,我们会选择某个特定词语而非其他。 在 Y 轴上,SAEs 系列论文展示了,模型在学习意义清晰的 concept,当然相比人类的concept,LLM 建立的 concept 更加精细,数量也远远超过人类定义的 concept 词典。 在 X轴,DLCM 开始探索 concept,不再逐个词元如 token或subtoken 处理语言。而是动态地将多个词元整合成 concept vector。 大家可以思考的更深一点,什么是 concept ?
Ralph Wiggum 插件:让 Claude Code “通宵干活” Ralph 就是一个让 Claude 自己跟自己对话的循环——你下班回家,它替你加班,醒来代码写好了。 核心原理 传统用法:你给 Claude 一个任务 → Claude 完成 → 退出 → 你再手动启动下一轮。 Ralph 用法: ```bash /ralph-loop "你的任务描述" --completion-promise "DONE" --max-iterations 50 ``` Claude 会: 1. 执行任务 2. 尝试退出时被 Stop hook 拦截 3. 自动重新读取同一个 prompt 4. 看到自己之前写的代码/测试结果 5. 继续改进,直到输出 “DONE” 或达到迭代上限 每次迭代 prompt 不变,但文件和 git 历史在变——Claude 通过读取自己的“作品”实现自我进化。 最适合的场景 ✅ TDD 开发:写测试 → 跑失败 → 改代码 → 重复直到全绿 ✅ Greenfield 项目:定义好需求,过夜执行 ✅ 有自动验证的任务:测试、Lint、类型检查能告诉它对不对 ❌ 需要人类判断的设计决策 ❌ 没有明确成功标准的任务 Prompt 写法要点: 必须有:明确的完成条件 + 完成信号词 示例: ```markdown 构建一个 Todo REST API 完成标准: - CRUD 全部可用 - 输入校验完备 - 测试覆盖率 > 80% 完成后输出:<promise>COMPLETE</promise> ``` 真实战绩 - Y Combinator Hackathon:一夜生成 6 个仓库 - 某项目:$50k 合同,API 成本仅 $297 安全机制 始终设置 `--max-iterations` 防止无限循环: ```bash /ralph-loop “任务” --max-iterations 30 --completion-promise “DONE” ``` 📎 插件地址:https://t.co/4MJUGB01Pf
我的2026不做清单: 1. 不用过度工作对抗焦虑,保护自己的时间和注意力,适当的休息和放松才是对工作最大的尊重 2. 不透支睡眠和运动换产出,出差也要保证足够的时间去恢复和运动,每天用Whoop监控睡眠、恢复、运动,自己控制不了自己就听AI的。 3. 不直接刷短视频和信息流,信息流用grok做筛选,视频用Atlas浏览器做导读和分析,用AI可以做上瘾机制隔离。 4. 不日常吃加工食物,尽可能可以看到食品原本的样子,尝试开始每天用ChatGPT记录自己的饮食并且获得更多热量控制和营养上的建议。
投手跟我说:小红书 0 粉账号、1w 粉账号、10w 粉账号,在不同的流量池 以你现在的水平,万粉以下可以乱杀,但是 10w 粉级别大概率打不赢,太卷了 所以建议是暂时停更 11w 粉丝的大号,开始运营小号 而小号运营的核心是,快赚钱、慢涨粉 实在不行,可以考虑把关注你的人全部拉黑,涨粉一定要慢,粉丝量就是毒药,粉丝越多,死的越快 你现在要研究的是:如何在赚钱的情况下,让别人不想关注你 ---- 以上,让我想起我曾经曰过的两则至理名言: 1、坏的商业模式,会逼你成为一个坏人 2、小红书的每一个规则都是为了坑你而特意打造的
看我的抖音、小红书的评论区,这些人给我的感觉是: 「但凡你敢跟我说一句实话,你就是我这辈子的仇人」😂 我说:你应该做一个好的选题,这样你可以在没有技巧的情况下做出好内容 他说:那岂不是没有流量了 我说:你应该做一个 nb 的事情,这样平铺直叙也会火 他说:普通人怎么可能 nb,你这是抬杠 虽说不应对评论区的观众进行本体层攻击,但这的确让我想起老罗说过的一句话: 人与人之间最大的不公,就是智力上的不公
Dwarkesh Patel访谈亚当•马布尔斯通(Adam Marblestone)。 一位横跨神经科学、物理学的大牛,从脑科学角度看AI,感觉挺有趣的,让AI总结下。 大脑凭什么用20瓦就碾压AI? 一个三岁小孩,看过的图片、听过的对话,加起来的数据量可能连GPT-4训练集的零头都不到。 但这个小孩能做的事情,最先进的AI模型至今做不到。 他能理解因果关系,能从几个例子里学会新概念,能在从未见过的情境中灵活应对。 问题的核心不在数据量,而在学习效率。 大脑到底用了什么秘密武器? 计算机科学家设计损失函数时,追求的是数学上的简洁优雅。 "预测下一个词",多干净利落的目标。 但进化不是这样。 马布尔斯通说,进化在大脑里编写的损失函数,复杂得像成千上万行运行中的Python代码。 这些代码不是一次性全部激活的,而是在人类发育的不同阶段,像定时炸弹一样被逐个触发。 婴儿三个月大的时候,某段代码告诉视觉皮层要开始学习识别面孔。 六个月的时候,另一段代码启动,引导听觉系统开始区分母语的音素。 青春期的时候,又有新的代码被激活,让大脑开始格外关注社交地位和同伴评价。 这就是为什么人类婴儿能在数据量远少于AI的情况下,学习效率高出几个数量级。 大脑的秘密:双系统架构 要理解大脑的高效,得先搞清楚它的架构设计。 大脑不是一个系统,而是两个系统的精妙配合。 导向系统:进化的祖传代码 底层是导向子系统,藏在下丘脑、脑干、杏仁核这些古老的区域。 这套系统里装的都是硬编码的本能。 看到蜘蛛会本能地跳开,尝到甜味会感到愉悦,被群体排斥会感到羞耻。 不需要学习,出生就自带。 关键是,这套系统还自带一套原始感官。 比如上丘这个区域,它有自己独立的视觉系统,专门用来快速检测威胁。 当有什么东西在你视野边缘快速移动时,是上丘先做出反应,让你本能地闪避。 然后你的大脑皮层才慢悠悠地意识到"哦,那是个什么东西"。 单细胞RNA测序显示,导向系统里的细胞类型极其丰富,成千上万种。 每一种细胞都像是一个高度定制化的传感器,负责探测某个特定的生存信号。 学习系统:通用的预测引擎 顶层是学习子系统,主要就是大脑皮层。 皮层的结构相对简单,基本上就是六层架构在不同区域不断重复。 这种设计很像Transformer模型,你要增加计算能力,不需要重新发明算法,只需要堆更多层就行。 皮层的核心任务是构建世界模型。 它不停地观察、预测、修正。 看到云层变暗,预测会下雨。 听到脚步声,预测有人要进门。 闻到烟味,预测可能有火灾。 但这里有个绝妙的设计。 皮层不仅在预测外部世界,它还在拼命学习预测导向系统的反应。 两个系统如何配合? 这是进化面临一个难题。 它不可能预见未来会出现"播客"、"社交媒体"这些东西。 但它又需要让人类在未来的任何环境中都能生存。 怎么办? 进化的解决方案极其聪明。 它在导向系统里只编码最基本的生存本能。 比如"被群体排斥很可怕","获得他人认可很爽"。 这些本能够简单、够原始,不管环境怎么变都用得上。 然后让学习系统自己去发现,在当前的环境里,什么东西会触发这些本能。 举个例子。 导向系统里有个硬编码的恐惧反应,当看到"快速移动的小黑点"时会触发。 这在远古时代很有用,因为那可能是毒蜘蛛。 但学习系统会发现更多。 它会发现,当听到"蜘蛛"这个词的时候,导向系统的恐惧神经元也会有反应。 当看到蜘蛛的图片时,也会有反应。 甚至当阅读关于蜘蛛的文章时,也会有微弱的反应。 于是,学习系统把所有这些抽象的、符号化的信息,都跟导向系统的原始恐惧挂上了钩。 这种机制的威力在于泛化。 进化只需要在基因里写一条简单的规则:"对快速移动的小黑点产生恐惧"。 学习系统会自动把这条规则扩展到语言、图像、文字等所有相关的抽象概念上。 基因组只有3GB的信息量,但通过这种方式,它能驱动出远超其信息容量的复杂行为。 为什么导向系统需要这么多种细胞? 这里有个有趣的对比。 导向系统的细胞类型远远多于学习系统。 下丘脑里的细胞种类,比整个大脑皮层都要丰富。 为啥? 因为导向系统的功能是硬编码的。 要让某个本能反应精确运作,进化必须在基因层面规定好神经元之间的连接方式。 A神经元必须连到B神经元,C神经元必须连到D神经元。 这种精确的布线需要分子层面的标识。 不同的神经元需要表达不同的受体蛋白,就像每个零件上都贴着条形码,告诉它应该跟谁连接。 每一种特定的连接模式,通常就需要一种特定的细胞类型。 相比之下,学习系统靠的是可塑性。 皮层的神经元之间的连接不是预设的,而是通过学习动态调整的。 所以它不需要那么多种细胞类型,只需要一个通用的架构,加上强大的突触可塑性。 如果把大脑比作一台计算机,导向系统就像是主板上密密麻麻的专用芯片,每个芯片负责一个特定功能。 而学习系统则像是CPU,通用但强大,通过软件(学习)来实现各种功能。 全向推理:大脑比LLM聪明在哪里 大语言模型的工作方式很直接。 给它前面的文字,它预测下一个词。 这是一种单向的、固定的推理模式。 大脑皮层的工作方式完全不同。 马布尔斯通把它称为"全向推理引擎"。 意思是,大脑可以从任何已知的变量,推断出任何未知的变量。 你看到一个人的表情,可以推断他的情绪。 你听到一个声音,可以推断声源的位置。 更厉害的是,这些推理可以跨模态进行。 你听到玻璃破碎的声音,大脑会自动"看到"可能的画面。 你看到某个场景,大脑会自动"听到"可能的声音。 这种能力的底层机制是什么? 大脑皮层在学习所有感知变量的联合概率分布。 它不是在学习"如果A那么B",而是在学习"A、B、C、D、E这些变量之间的整体关系是什么"。 当你固定住其中几个变量(比如你看到的画面)。 大脑就通过神经元的天然随机性进行概率采样,推断出其他变量的可能状态(比如可能的声音、气味、触感)。 这就是为什么大脑在面对从未见过的情境时,依然能做出合理的推断。 它掌握的不是具体的案例,而是变量之间的深层关系。 人类大脑的功耗只有20瓦。 一个普通的LED灯泡都比它耗电。但它的计算能力,目前没有任何超级计算机能比。 秘密在存算一体 传统计算机架构最大的能耗浪费在哪里? 在内存和处理器之间搬运数据。 CPU要从内存读取数据,处理完再写回去。 这种来回搬运消耗了大量能量。 大脑没有这个问题。 神经元的突触既是存储单元,也是计算单元。 信息存在哪里,就在哪里处理。不需要搬运。 物理随机性 AI做概率采样的时候,需要用软件生成随机数。 这个过程很耗计算资源。 大脑的神经元天生就是随机的。 离子通道的开关本身就带有物理层面的随机性。 大脑直接利用这种物理随机性来做概率推理。 不需要用代码模拟,不需要额外计算,物理过程本身就是采样过程。 低电压、低频率 大脑的神经元放电频率只有200赫兹左右。 现代CPU的频率是几个GHz,差了几万倍。 但正是这种低频运行,让大脑可以使用极低的电压。 电压降低,功耗就呈平方级下降。 加上非结构化的稀疏性。 大脑里绝大部分神经元在任何时刻都是不活跃的。 只有很小一部分在放电。 这种稀疏激活模式,进一步降低了能耗。 这几个因素加在一起,造就了20瓦的奇迹。 如何让AI更像人类? 理解了大脑的工作原理,我们能从中学到什么? 有个很有意思的想法,叫"辅助损失函数"。 训练AI的时候,不仅要求它输出正确答案,还要求它的内部神经活动模式跟人类大脑保持一致。 具体怎么做? 用fMRI扫描人类大脑,记录下人在看到某个物体时,各个脑区的激活模式。 然后训练AI,让它在处理同样物体时,内部的激活模式也尽量接近人类大脑。 好处是什么? 它能让AI学到更接近人类的表征几何结构。 人类大脑对世界的理解,不仅仅是统计规律,还包含了大量进化积累的先验知识。 通过模仿大脑的激活模式,AI可能也能学到这些先验知识。 而且,这种方法还能提高AI的鲁棒性。 现在的AI模型很容易被对抗样本攻击,一个人类完全看不出区别的微小扰动,就能让AI做出错误判断。 如果AI的表征结构跟人类大脑一致,它可能也会获得类似人类的鲁棒性。 多损失函数的训练 大脑在学习的时候,不是只优化一个目标。 导向系统给皮层设定了成千上万个不同的学习任务。 有些任务是预测视觉输入,有些是预测听觉输入,有些是预测社交反馈,有些是预测身体状态。 这种多任务学习,可能是大脑高效的关键。 现在的AI训练,通常就是优化一个损失函数。 也许我们应该学习大脑,设计更复杂的、多层次的损失函数体系。 连接组学:神经科学的哈勃望远镜 要真正理解大脑,光有理论不够。 我们需要看到大脑的真实结构。 每个神经元连接到哪些神经元,用的是什么类型的突触,表达的是什么分子标记。 这就是连接组学要做的事。 马布尔斯通把它比作神经科学的哈勃望远镜。 哈勃望远镜不是为了某个特定的天文发现,而是为所有天文学家提供一个共享的观测平台。 连接组学也一样。 一旦我们有了完整的大脑连接图谱,所有关于大脑工作原理的理论,都可以用这个图谱来验证。 那些跟物理事实不符的理论,会被直接排除。 问题是成本。 早期估计,绘制一个小鼠大脑的完整连接组,可能需要几十亿美元。 这个成本太高了,没有哪个实验室能承担。 但技术在进步。 通过光学显微镜和分子标注技术,成本正在快速下降。 马布尔斯通的团队认为,可以把成本降到几千万美元的级别。 一旦达到这个成本,连接组学就能成为神经科学的标准工具。 就像基因测序一样,从天价变成常规操作。 Lean语言:数学和AI安全的新基础 在数学研究领域,也有类似的革命在发生。 Lean是一种形式化证明语言。它能把数学证明转化成计算机可以验证的代码。 这有什么用? 传统的数学证明,需要人类专家来审查。但人类会犯错,会遗漏细节,会被复杂的推理绕晕。 Lean不会。 只要你用Lean写出证明,计算机就能立即告诉你,这个证明是对是错。 不需要等待审稿人,不需要担心遗漏,绝对的精确。 这为AI提供了完美的训练信号。 AI在学习数学推理的时候,最大的困难是缺乏明确的反馈。 一个证明是否正确,往往需要人类专家来判断。 但有了Lean,AI可以自己尝试各种证明路径,立即得到对错反馈。 这就像AlphaGo学围棋一样,有明确的胜负信号。 AlphaProof这样的系统,已经开始利用Lean来学习数学证明。 它在某些数学竞赛题目上,已经达到了金牌选手的水平。 更重要的是AI安全。 通过Lean,我们可以为软件编写数学证明,确保它在逻辑上是绝对安全的。 不是通过测试来发现bug,而是通过数学证明来保证不存在bug。 这种"可证明安全"的软件,在未来可能成为关键基础设施的标准要求。 写在最后 我们对大脑的理解,每深入一寸,AI的天花板就可能抬升一尺。 大脑用了几亿年进化出来的架构,不是随便设计出来的。每一个看似奇怪的特征,背后都有深刻的道理。 比如,导向系统和学习系统的分离,解决了先天和后天的平衡问题。 存算一体和物理随机性,达到了极致的能效比。 ... 这些设计原则,都值得AI研究者认真学习。 但同时也要意识到,大脑不是完美的。 它不能被复制,不能被随机访问,不能被精确调试。 所以,我们不是要完全复制大脑,而是要理解它的设计原则,然后在数字世界里找到对应的实现方式。 就像进化教给我们的那样,好的架构,胜过一切。 ---
