🔥 Search Hot Tweets
Search and analyze hot tweets from KOL accounts list (list: https://x.com/i/lists/1961235697677017443) within 6 hours. Use SoPilot plugin to quickly comment and occupy the comment section.
Grok 上线了一个新的 AI 陪伴角色 Mika 重点是这个 XAI 的人用 Grok Imagine 做的角色宣传片,太好看了! https://t.co/ND233SMLvo
又一个非常顶的 Veo 3.1 图生视频做的广告,作者分享了他的制作方法: - 每个角色训练数据集,多种角度、表情和光线变化 - 创建主提示词,定义环境参数,灯光、建筑、对比度等 - 生成基础模板,除了角色的所有画面 - 参考图放到 Nano Banana 创建带角色的图像 https://t.co/Bzcxyg06so
收到了第一笔版税收入 2.3w,很开心。 《这就是 MCP》三个月累计销售 3700 余册,在纯技术类书籍里面算是卖得还不错了。其中我自购 1500 册,支出 6w 多,要卖到一万本才能回本。😂 投入四个月,roi 没打正,看起来很亏,但有些快乐,经历过才知道。 我依然坚信这是市面上讲 MCP 最好的一本书,我也相信 MCP 会在 AI 时代产生长远、持久的影响。 做产品最重要的是开心,写书也是。📚
5/100 Vibe Coding 最最最核心的点是「先和 AI 聊透,把自己的思路整理清楚」 很多人觉得 Vibe Coding 存在这样或者那样的问题,根源还是在于「指挥官无法在头脑不清晰的情况下指挥作战」 对于新手来说,一定要多聊,多让 AI 写文档,你去读文档,做出分析。 多写一些网站/app/小玩具,你的提升速度就会很快。 好的摄影师拍的废片一定比其他摄影师多得多,好的 vibe coder / pro coder 也是如此。
嗯,腾讯有了 50% 的 AI 代码,微信公众号编辑器还是一如既往的难用 代码行数 不等于 代码质量好 代码行数多不等于功能就又多又好 AI 编程很好,但是最好说的清楚具体,哪些地方好,适用于哪些场景,哪些地方还不够好,而不是简单的: 腾讯都 50% 新增代码由 AI 辅助生成 -> AI 写代码靠谱 这个逻辑是不对的
考虑在线下开一家店,不一定非要挣钱,不巨亏就行 置身事内,可以源源不断地提供素材 一家店换抖音 50 万粉丝
我现在是 Agent 信徒 + 手搓,Tab 反而最少 1. 先用 Agent 快速实现完整功能,不必在意质量,但核心是完整实现需求,走通各个流程,了解各种边界条件 2. 然后基于需求和完整的流程,重新思考设计架构,再手搓+Agent 这样既可以兼顾速度,又可以保证质量
这篇文章确实是指出了当前 LLM 存在的问题,但解决方案并不见得可行,另外这文章实在太长了点。 如果几句话总结一下,这篇文章主要就是想讲清楚:强化学习(RL)的教父、图灵奖得主 Richard Sutton 到底在担心什么?为什么我们现在的 Agent 这么“笨”?以及,我们该如何跨过这道鸿沟? Sutton 就是“AI 圣经”《苦涩的教训》(The Bitter Lesson) 的作者,他的理念就是: > 在人工智能领域,长远来看,依赖大规模计算的通用方法(如搜索和学习)最终将胜过依赖人类专家知识的复杂方法。 按理说,他应该对 GPT-5、Claude 这样的大模型拍案叫绝才对。 但他没有。相反,他直言不讳:今天所有的 LLM(大语言模型)都是一条死路。 为什么?Sutton 的原话:LLM 只是在模仿人会“说什么”,而不是在理解世界是“如何运转”的。 这个观点引发了很多讨论,AI 大神 Andrej Karpathy 前几天在播客中也对此有回应和深入探讨(参见:https://t.co/GbNyI7PZxl )。 > “我以前就说过,人类不使用强化学习。我认为人类的学习方式完全不同。强化学习比普通人想的要糟糕得多。强化学习很烂。只不过,我们以前有的其他算法比它还要烂得多罢了。” 两位大神都在揭露一个真相: 我们今天津津乐道的“推理器”(Reasoner),离一个真正的“智能体”(Agent)还差得远。而这个鸿沟,就叫“持续学习”。 1. 为什么 Sutton 说 LLM 是“死路”? Sutton 的批评主要集中在两点。 批评一:LLM 是“鹦鹉”,不是“物理学家” Sutton 说,LLM 根本不是真正的“世界模型”。 - 真正的世界模型:能预测“如果我做了A,世界会发生B”。比如,我松开手(动作A),杯子会掉地上摔碎(结果B)。这是对因果和物理规律的理解。 - LLM 在做什么:它在预测“如果我问了A,人类会回答B”。比如,我问“杯子掉了会怎样?”,它会回答“会摔碎”。 看到区别了吗?LLM 是在模仿一个“观察者”会如何描述这个世界,而不是作为“参与者”去理解这个世界的规律。它学的是“人会说什么”,而不是“世界会怎样”。 批评二:现在的强化学习“笨得可以” Sutton 的另一个批评是,我们现在主流的 RL 算法(比如 PPO)样本效率低到发指,而且它们只从“奖励”中学习,不从“观察”中学习。 这话说得有点绕,用原文里的一个例子,你一下就懂了: > 假设我们开发一个 AI Agent,帮用户打电话给 Xfinity(一家运营商)客服。 > > 第一次尝试:Agent 打过去,客服说:“我需要您的信用卡后四位来验证身份。” Agent 没有这个信息,任务失败,挂断。 > > 好了,问题来了: > > - 传统 RL Agent (PPO):它只知道这次尝试失败了(Reward = 0)。它不知道为什么失败。客服明明已经告诉它答案了(“需要信用卡后四位”),但这个信息是“观察”(Observation),不是“奖励”(Reward)。所以,这个笨蛋 Agent 只能下次再试,再失败……可能要试几百次,某一次瞎猫碰上死耗子,它碰巧提供了信用卡信息,成功了(Reward = 1),它这才“学会”了。 > > - 人类:第一次被告知需要信用卡信息,立刻就记住了。下次打电话前就会主动要这个信息。 这就是差距。人类能从环境的丰富反馈(观察)中学习,而现在的 RL 算法大多是“无模型”的,它们只关心“我这么做能不能拿分”,而无视了环境给出的所有其他宝贵信息。 2. “无限上下文”的陷阱:为什么 RAG (检索增强生成)不是学习? 很多人可能会反驳:“没关系,我们现在有超长上下文(Long Context)了!我把 Agent 第一次失败的经验(“客服要信用卡后四位”)直接放进下一次任务的提示词里不就行了?” 这就是目前大多数 Agent 的做法,包括 In-Context Learning(上下文学习)或者 RAG。 但这是对“学习”最大的误解。 把历史记录塞进上下文,不叫“学习”,这叫“开卷考试”。 原文中打个比方: > 让你计算 100 个案例中黑猫和白猫的比例。 > > - 真正的学习(压缩):你看完一遍,在脑子里总结出一个结论:“90只黑猫,10只白猫”。下次再问你,你直接给出答案。 > - 长上下文(RAG):你把 100 个案例的原始记录全堆在桌上。每次有人问你,你就重新把这 100 个案例再数一遍,然后得出结论。 这种方式极其低效,因为知识没有被提炼和压缩。你只是在进行一次又一次的重复检索,而不是把经验内化成了“规律”或“知识”。 AK 在前几天播客里面有一个引起很多人共鸣的结论:人类记性差,这不是 Bug,反而是 Feature(特性)。 正因为我们记不住所有原始细节,才被迫去提炼、总结、压缩知识,找出事物背后的规律。而这个“压缩”和“提炼”的过程,才是学习的本质。 3. “新员工”的困境:为什么 Agent 没法“上班”? 这就引出了一个核心问题:为什么现在的 Agent 解数学题比99%的人都强,但你让它去你公司干个具体工作,它却一塌糊涂? 你可以这么想:你找一个再聪明的天才,不培训就让他来你公司上班,他能干好吗? 大概率不能。因为他不知道: - 公司的代码规范 (Coding Style) - 公司的业务逻辑和黑话 - 团队的协作流程 - 哪些是不能碰的隐形红线 这些知识,绝大部分是非公开的、特定的、隐性的,你没法用一个简短的 prompt 教会它。 人类是怎么做的?在工作中持续学习。 这就带出了 Sutton 坚信的“大世界假设”(Big World Hypothesis):世界上的信息是无限的,模型不可能在预训练阶段就学完所有东西。你必须在与具体环境的交互中不断学习新知识。 而很多 LLM 派持有的是“小世界假设”:世界是复杂的,但规律是简洁的。只要模型足够大(比如 GPT-5),就能掌握绝大部分重要知识,不需要再学了。 显然,现实世界更符合“大世界”假设。 4. 怎样才算“真学习”?从“奖励”到“预测” 既然必须持续学习,而传统 RL 又那么笨(只认 Reward),那该怎么办? 原文作者结合实践,提出了一个非常有启发的改进思路,我把它称为“双 LoRA”策略。(LoRA 是一种高效微调技术,你可以理解为给大模型打上一个小小的“能力补丁”) 这个策略的核心是:在学习“怎么做对”(Policy)的同时,也要学习“世界会怎样”(World Model)。 回到那个 Xfinity 客服的例子: 1. LoRA 1 (策略补丁):它还是从 Reward 学习。任务失败,Reward = 0,它学不到东西。 2. LoRA 2 (世界模型补丁):它不关心 Reward,它的唯一任务是预测环境的下一个反馈。当客服说“我需要信用卡后四位”时,这个补丁会因为“预测失败”(它没料到客服会说这个)而产生一个 loss,然后它就会更新自己,学会“哦,原来打电话给 Xfinity,对方会要信用卡信息”。 看,这就是一种时序差分学习(TD-Learning)。Agent 不再是只看重“得分”的偏科生,还成了能“理解”环境反馈的好学生。 效果是天差地别的: - 传统 RL:要试几百次才能学会。 - 双 LoRA:只要 1、2 个 step 就能学会。 这,才开始有点“持续学习”的样子了。 5. 另一个“致命”瓶颈:AI 为什么反应这么慢? 解决了学习效率,还有一个大问题:现在的 Agent 交互起来为什么那么“卡”? 明明模型的输入输出速度(token/s)都比人类快得多,为什么我们总觉得它反应迟钝? 作者认为根源在于一个僵化的“ReAct 循环”:观察 → 思考 → 行动。 现在的 Agent 都是这个死循环: 1. 观察(听):必须等你把话说完,看到句号了,它才开始下一步。 2. 思考:开始处理你的话,进行推理。 3. 行动(说):把思考完的结果一口气说出来。 但人类根本不是这样工作的! 人类是“事件驱动”的,我们的“听、想、说”是交错进行的 (interleaved): - 边听边想:你刚说开头,我就开始思考和预测你后面要说什么了。等你把话说完,我可能已经想好答案了。 - 边想边说:如果我没想好,我会先说点“嗯……”、“让我想想啊……”这样的“填充词”,在说这些话的同时,我的大脑在高速进行下一步思考。 人类充分利用了所有“间隙”在思考,所以交互体验才如此流畅。 未来的 Agent 必须抛弃僵化的 ReAct 循环,转向这种“边听边想边说”的事件驱动架构。这对于语音助手、机器人、甚至 AI 帮你打游戏都至关重要。 对于这点我觉得虽然“ReAct 循环”,但是实现起来是最简单直接的,作者所说的那种思路看起来很好,但真要实施当前技术未必做的到。 当然很多事情还是得要加上时间维度,有时候并不能用现在的眼光来看这些问题。 至少当前 AI Agent 存在的问题是客观存在的: - 一个真正的 Agent,其核心价值不在于它“知道多少”,而在于它“能学多快”。 - Agent 必须要有持续学习的能力,能从丰富的“观察”中学习世界模型 - “ReAct 循环”很慢,Agent 也应该想人一样能具有“边听边想边说”的实时架构
抖音:你敢教我赚钱我就骂你 视频号:你发啥我都骂你 B 站:我先骂你,再看看你发了啥 小红书:狠狠共情了😭
分享我的关评 SOP: B 站、视频号:永不开放评论 推特:3w 曝光后关闭评论 抖音:10w 播放后关闭评论 小红书不需要关闭评论,但保持一言不合就拉黑状态 “不合”指的不是不合道理,是不合心情 我的短视频是单向传播,不是双向互动,这是最基本的认知 至于关评会不会影响流量 流量大不会让我开心,但傻子多会让我抑郁
我以前面对不确定性会害怕。 现在我决定和不确定共存之后,有点不适应但是我会做以前绝对不会做的事情了。
我是真心希望马斯克取消创作者收入,再把 Anthropic 收购了让那个狗逼 CEO 管理 Twitter,然后采用及其严厉的封禁政策。这尼玛八百年前的破段子都出来了。。。 https://t.co/MMl7AA5FZ7
验证一个生意,并不一定要把它构建出来 比如你要卖一个文档库,如果你去写100份文档,再把它上架去卖,你就可能面临很多问题: - 找不到客户 - 找到客户了,但客户不买账 这都会浪费掉你构建文档的时间 事情应该反过来做,你应该先写100份文档标题,甚至给文档配上图,让别人感觉到有很多内容 然后就去卖,这时候你写清楚,加入社群,每天早中晚分享3篇干货阅读 美其名曰:你不读,就随着时间线丢失了,要有损失厌恶 然后100篇文档都ok后,你再给这些客户交付个文档库 后面再来买的客户,就会直接拿到文档库 ----------- 人们在购买时,是通过商品文案,图片内容的丰富度来决策购买的 当那个心智命中了,就会成交,而不是依靠你文档真正的细节内容 卖的是个感觉,而不是实体 当你开始这样转变思维之后,做生意的成功率就会显著提高,因为你会发现: - 很多想法只是主观臆断,没人买单 - 试了好几种表达,终于找到了人们有心智愿意付费的包装 - 我先回收了钱,然后文档不需要自己写了,雇个人来完成 预售会带来很多有价值的洞察,并带来时间杠杆 相反,如果你去写100篇文档,但最后卖不掉,你就会面临巨大的负反馈了 ----------- 做生意的路子有很多,怎么找到这些洞察? - 多看,看书,看信息,看别人的分享 - 多干多失败,错的越多,懂的越多,别人说100次都不如自己去撞1次南墙 - 多干总会成功,当你成功一次,就会加深这个方法
还是网上赚钱轻松🤣 昨天发了个贴督促大家捡钱 教大家获取 AI 浏览器的返利 10 刀的链接 今天收入已经到 170 刀+100 刀奖励 快 2k rmb 了 还不知道如何做的看 二图,下载浏览器地址在下面👇 https://t.co/ZPoyfit9nF https://t.co/sR1tS5L7wz
和大家分享一下, 作为一个只会写写matlab和R的臭生物狗,是怎么靠 AI 做出自己第一个软件工具的。 说真的,看推上那些巨佬给 Claude Code 下的提示词,动辄就是“让 AI 连写八小时代码”——我光看都觉得呼吸急促。那种体量的项目,我根本不敢想 (要真能搞得起来,我怕不是得改行去写软件了)。 但这次写这个 github_tools,真的让我信心爆棚。真的有种“卧槽,原来我也能做到”的感觉。忍不住想“炫耀”一下——我到底是怎么完成的。 前阵子和一个做产品经理的推友面基,他跟我说,现在用 Claude Code 做项目,和以前最大的不同是: “文档写得比以前任何一个项目都详细。” 以前写个文档糊弄两下,再当面对齐需求就完事了。现在不行了,AI 不会猜,你必须把每一个技术细节都写清楚,甚至写得比人类同事还细。 他说了一句话我印象特别深: “先写文档,然后和AI讨论优化、细化需求,不停的反复拉扯几轮。 现实版“你逃我追,等你插翅难飞” 等定稿了,再让 AI 开始写代码。” 我照着这个思路来,一步步调整:我写、朋友 看;我改、朋友 再看。最后,一个完整的需求文档就成型了(放在文末,大家可以直接看看)。 接着我创建文件夹,把文档丢进去, 然后启动 Claude Code (再次感谢甲方爸爸给的token,大家可以试用一下https://t.co/oTv7kuPeye,昨天的bug已经杀了一个技术祭天修复好了) ——“接下来你用提问的方式提出关于细节的问题,我们一起来完善计划”,它从更多视角补全了我文档中没想到的。 开始写代码。 我写的是个网页,调试就用最简单的方法: sudo python3 -m http.server 80 --bind 0.0.0.0 然后就能实时看到网页的样子。 后面当然少不了——冗长、反复、但也充满成就感的调试。 那一刻,我才真切地意识到:AI 编程这件事,不是巨佬的专利。一个没有特别多代码基础的普通人,也有可能造出一个专属自己的小工具。 这大概就是很多计算机大佬们刚入门的快乐了吧
推荐阅读这篇Agent持续学习的困境 很多时候我们光去看各种ai顶级大佬说什么 但可能很难通过实践去践行他们的思维 这篇文章写的非常清晰 容易理解 逐步通过问题引出实践结论 并例证了相关方法 将思想得以发挥 如果你在做agent 肯定会有很多启发 https://t.co/fQZGXgxmp2
终于🥰 https://t.co/tnKOaEiMmX
好的,Veo 3.1 简直太疯狂了。 现在,它拥有更强的真实感、更好的操控性,并支持1080p分辨率和音频同步。 人们在 Invideo 上疯狂地创作着完整的视频。 5个炸裂的案例及制作方法: 1. 受经典 Old Spice 广告启发的 AI 概念广告 https://t.co/SwSO7vHz5z
昨天说了人类最宝贵的品质之一是“有意图”。 今天给大家分享一个立即能用的 Claude Skill prompt 就是Clarify my Intention. 开袋即用。 你平时最混乱的碎碎念,乱七八糟的创意,天马行空,其实充满了能量。都不要浪费了,直接拿来当人生的引擎,让AI让你把“意图”说清楚。 Lesson 1 — Clarify Your Intention https://t.co/PtCraqjbPy
这次回国的一项秒杀国外的服务:AirPods换电池。120块,包邮,关键他们直接定了个顺丰来取件,啥包装之类都不用,然后三四天后寄回,崭新,还帮清理了污垢,成了部新耳机。 牛逼。 https://t.co/34Xk9m1yOw
揭秘“AI 智能体” (Agentic AI) 到底如何工作:给孩子的科普指南 步骤 1:了解什么是 AI 智能体 (Understand What Agentic AI Means) - AI 智能体 (Agentic AI) 就像一个超级聪明的帮手,它能自己做决定、定计划,还能亲自动手完成任务。 - 它不只是回答问题——它能真的采取行动,比如帮你订票或者发送电子邮件! - 你可以把它想象成一个机器人,它既有聪明的大脑 🧠,也有一张待办事项清单。 步骤 2:学习 AI 智能体的 3 大超能力 (Learn the 3 Powers of Agentic AI) - 记忆力 (Memory):它能记住以前发生过的事,并利用这些信息来辅助当下的决策。 - 思考力 (Thinking):它会自己规划步骤,并能理性分析为什么这么选。 - 行动力 (Doing):它会采取实实在在的行动,而不只是动动嘴皮子输出文字。 举个例子: 你对它说:“帮我规划一次日本旅行。” AI 智能体会自己去查航班、看天气、推荐景点、预订酒店——全自动完成! 步骤 3:AI 智能体如何“思考”和“行动” (How Agentic AI "Thinks" & "Acts") - 它会把你的要求拆分成好几个小步骤。 - 它会思考:“我需要用到哪些工具才能完成任务呢?” - 它会挑选合适的工具,比如搜索引擎、地图或电子邮件。 - 然后它就去执行任务——就像你的私人助理一样。 步骤 4:认识两大类智能体 (Know the Two Main Agent Types) - 任务型智能体 (Task Agents):专注于单一、明确的目标(例如,“帮我总结这个文件”)。 - 自主型智能体 (Autonomous Agents):它们能处理复杂的、包含多个步骤的任务,在过程中不断调整策略,并自主做出聪明的决策。 步骤 5:AI 智能体如何学习 (How Agentic AI Learns) - 它会不断地尝试、失败、学习,然后不断进步(跟我们人类一样!)。 - 它会利用反馈信息,比如会反思:“用户喜欢我制定的这个计划吗?” - 它会从中吸取教训,下次用更好的方法来解决问题。 步骤 6:AI 智能体如何使用工具 (How Agentic AI Uses Tools) - 把它想象成一个拥有各种神奇“小道具”的超级英雄。 - 它知道什么时候该用什么工具: * 地图 * 电子邮件 * Excel 表格 * 谷歌搜索 - 它总能为当前任务挑出最合适的工具——就像蝙蝠侠从他的万能腰带里挑选装备一样 🦇! 步骤 7:看看生活中的 AI 智能体 (See Agentic AI in Real Life) - 自动预订会议 - 管理你的日历 - 撰写并发送后续跟进的电子邮件 - 创建完整的演示文稿(也就是我们常说的 PPT) - 运营一整套业务流程——几乎不需要人工插手!
斯坦福大学的一篇论文《WHERE LLM AGENTS FAIL AND HOW THEY CAN LEARN FROM FAILURES》在尝试找到 AI 智能体为什么总是失败的答案。 他们观察了超过 500 次智能体在三个不同基准测试中的失败案例,其实很多人以前也提出过类似的观点,就是错误会累积: 早期的微小错误并不仅仅是小麻烦,它们会像多米诺骨牌一样层层传递,最终导致整个系统彻底崩溃。 想象一下,你让一个 AI 助手帮你完成一个复杂任务,比如“预订下周二去上海的航班和酒店,并把确认信息发到我日历上”。 这任务听起来不难,但它需要 AI 做好几件事: 1. 规划(Planning):先订机票,再订酒店,最后发日历。 2. 使用工具(Tool-use):调用航旅 App 的 API、调用日历 API。 3. 记忆(Memory):记住订好的航班号,以便预订机场附近的酒店。 4. 反思(Reflection):检查一下,“酒店订好了吗?机票确认了吗?”。 理论上很完美。但现实中,这个 AI 助手可能在第一步“订机票”时,因为网络卡了一下,工具返回了一个错误代码。然后,灾难就开始了。 AI 助手可能没看懂这个错误,它“反思”了一下,错误地得出一个结论:“哦,机票订好了!”。然后它信心满满地去执行第二步“订酒店”。等它执行到最后一步,你打开日历一看,发现航班信息是空的,酒店也没订上,任务彻底失败。 这就是这篇论文的核心要点:“连锁崩溃”(Cascading Failures)。 就像多米诺骨牌,一个小小的、发生在早期的错误,会像病毒一样在后续的每一步中传播开来。AI 越复杂,这种连锁崩溃就越严重。目前的问题是,我们缺乏一个好办法,去系统性地理解 AI 到底是在哪一步“想歪了”。我们只看到最后的失败,却抓不住那个引发一切的“万恶之源”。 要想治病,先得“确诊”:给 AI 失败建个分类表 这篇论文的作者们认为,要解决问题,我们首先得能准确描述问题。 于是,他们做的第一件事,就是创建了一个“AI 智能体失败分类表”,名叫 AgentErrorTaxonomy(智能体错误分类法)。 这个分类表非常关键,它不再笼统地说“AI 失败了”,而是把失败的原因归纳到 AI 的核心模块里: 1. 记忆模块(Memory):AI 记错了或“脑补”了信息。比如,它以为自己已经把商品A加入购物车了,但实际上没有。 2. 反思模块(Reflection):AI 错误地评估了当前进展。比如,任务明明卡住了,它却以为“进展顺利,下一步!”。 3. 规划模块(Planning):AI 制订了不合逻辑或无法执行的计划。比如,它计划“先穿墙过去,再开门”。 4. 行动模块(Action):AI 在执行层面出了错。比如,它调用工具时,把参数名字写错了。 5. 系统模块(System):非 AI 自身原因,比如外部工具崩溃了,或者网络超时了。 有了这个分类表,AI 的失败就不再是一个玄学问题,而变成了一个可以被诊断、被归类的工程问题。 有了“诊断标准”,下一步就是需要“临床病例”——一个“AI 失败案例集”。 作者们接着构建了 AgentErrorBench(智能体错误基准)。他们从 ALFWorld(模拟家居环境)、GAIA(问答)、WebShop(模拟网购)等多个知名 AI 智能体测试平台上,收集了足足几百个 AI 真实失败的“黑历史”轨迹。 然后,他们雇佣了专家,用上面那个“失败分类表”去逐一标注: - “看,这个案例,AI 在第 3 步的‘规划’上出了错,它‘忽视了约束条件’。” - “哦,这个案例更典型,它在第 5 步的‘记忆’上‘过度简化’了信息,导致后面全错。” 这个“AI 失败案例集”是业界第一个这么干的。它就像一本“AI 疑难杂症病例手册”,让 AI 开发者终于有了一套靶子,可以用来训练和测试他们的“AI 医生”。 隆重登场:“AI 调试器” AgentDebug 有了“诊断标准”和“病例手册”,这篇论文的“重头戏”来了:一个能自动给 AI 纠错的框架——AgentDebug。 AgentDebug 的核心思想,不是修复 AI 的每一个小毛病,而是去找到那个引发“连锁崩溃”的“0号病人”——也就是“根源错误”(Root-Cause Failures)。 它的工作流程分为三步: 第 1 步:全面体检(Fine-grained Analysis) AgentDebug 会先拿到 AI 失败的完整“行动日志”。然后,它用“失败分类表”作为尺子,给日志里的每一步、每一个模块(记忆、规划、反思……)都打上标签。 第 2 步:定位根源(Critical Error Detection) 这是最关键的一步。AgentDebug 会从头到尾分析这个体检报告,寻找那个最早的、最关键的错误。 怎么才算“关键”?AgentDebug 的判断标准近乎一种“反事实推演”:如果我在这一步修正了你这个错误,整个任务是不是就能转危为安了? - 如果答案是“是”,那恭喜,你就是那个“根源错误”。 - 如果你只是个被上一步带歪的“受害者”,修复你也没用,那就跳过。 这种方式效率极高,因为它直奔主题,而不是在那些无关紧要的“表面错误”上浪费时间。 第 3 步:精准“喂药”(Iterative Debugging) 一旦找到根源错误,AgentDebug 不会粗暴地让 AI “你重来一次”。 相反,它会给出非常具体、可执行的反馈。比如在一个找东西的任务中,它会说: “停。你在第4步的‘规划’模块犯了‘计划低效’的错误。你的计划是只搜寻柜子,但你忽略了台面/桌子这些同样可能的地方。现在,请你从第4步重新开始,修正你的计划,把台面也搜一下。” AI 助手收到这个反馈,就会“回滚”到第 4 步,带着新建议重新执行,最终成功完成了任务。 作者们的实验证明,AgentDebug 效果拔群。在“定位错误”这个能力上,AgentDebug 找出“根源错误”的准确率,比最强的竞品高出了 24%。 在“修复任务”这个能力上,它给 AI 带来的任务成功率提升更是高达 26%。在一款模型上,它甚至把任务成功率从 21% 直接拉升到了 55%。 这篇论文最后总结的第一句话是: > This work focuses on analyzing and improving the robustness of LLM-based agents. 通往强大 AI 的路径,不仅在于让它“更聪明”,更在于让它“更皮实”(Robust)。 一个能认识到自己犯错、能分析错误根源、并能从中吸取教训的 AI,远比一个只会“一条路走到黑”的天才 AI 要可靠得多。 当然这篇论文中提到的方案能否在 AI Agent 的实践中落地,还有待观察,但这些研究还是能给人一些启发。 论文地址:https://t.co/o2Uq3taMUr
我们的CS教育到底缺了什么? 一篇2015年的老文 “那些不存在但本该存在的CS课程” https://t.co/Z9HurX9R05 最近突然在 Hacker News 上“挖坟”并火爆异常,显然,它精准地戳中了当代开发者的痛点。 这篇文章的作者 James Hague 列出了一系列“脑洞大开”的课程,这些课程却又该死的“实用”。比如: - CSCI 2100: 反-面向对象编程 (Unlearning OOP):教你如何使用那些不在对象层次结构里的变量,以及一种叫“函数”的东西——它像方法,但更有用。 - CSCI 3300: 古典软件研究 (Classical Software Studies):解剖 VisiCalc、Zork 和 MacPaint 等“古董”产品,重点研究它们在硬件限制下催生出的用户界面和创造力。 - CSCI 4020: 用慢语言写快代码 (Writing Fast Code in Slow Languages):让你写的 Python 在性能上能媲美甚至击败 C++。 - PSYC 4410: 程序员精神执念 (Obsessions of the Programmer Mind):研究开发者为何总是对代码格式、命名分类、类型系统等“破事”耿耿于怀。 这篇文章与其说是讽刺,不如说是一面镜子。它引发了一场关于“大学CS教育到底教了些啥”以及“我们真正需要学什么”的大讨论。 文章中最主要的几个争议点: 焦点一:“古典研究” vs “基材依赖”——我们到底该不该学习编程“历史”? 原作者提出的“古典软件研究”课程,点燃了第一个火药桶。 这个想法的支持者,以计算机先驱 Alan Kay 为精神领袖,认为我们今天90%的工作都是在“重新发明70年代就已解决的轮子”。一位用户就提到,他大学时选修了一门“软件考古学” (Software Archaeology),重写70年代的编译器练习。当时觉得毫无用处,但后来发现“那门课教给我的系统设计知识,比任何现代框架都多。” 然而,反对的声音异常尖锐且有力。 一位高赞评论者(PaulDavisThe1st)提出了一个振聋发聩的观点:CS 和艺术史没有可比性。 他认为,艺术和哲学的历史跨越千年,而计算机的有效历史不过“三代人的寿命”。更重要的是,艺术和哲学对“物质基材” (material substrate) 的依赖很小,而“计算则完全依赖于其物理基材的性能”(CPU速度、内存大小、网络带宽等)。 换句话说,1970年在几十KB内存上解决问题的经验,对于我们今天在几十GB内存上解决问题,几乎没有“戏剧性”的教训可言。因为“材料”都变了,好比你无法用青铜器时代的冶炼经验来指导如何造航天飞机。 这个观点几乎要终结讨论了,但“反-反方”的见解更加精彩: 有用户(wanderingjew)立刻反驳:谁说艺术不依赖基材?MCM(世纪中期现代)家具的标志性“弯曲胶合板”,是因为二战期间发明了新的胶水技术;19世纪中期颜料的爆发,是因为“合成染料”被发明了;荷兰大师们(Dutch Masters)的油画成就,也离不开当时荷兰盛产的“亚麻籽油”。 另一位评论者(kragen)则给出了一个更深刻的综合观点: “基材依赖”论在1970年是对的,但在今天“基本是错的”。对于我们现在99%的应用(比如你正在看的这个网页),限制我们的早已不是硬件,而是“程序员的想象力”。 但这恰恰是我们要学习历史的原因! 历史中(比如50年代的“感知机”)有大量因为当时“基材限制”而失败的绝妙点子,它们在今天“基材管够”的时代,可能就是下一个金矿。 焦点二:“反-OOP(面向对象编程)”大论战:是“万恶之源”还是“企业基石”? 一个阵营(zkmon)是坚定的“OOP捍卫者”。他们认为,你们这帮玩着Jupyter和REPL的“开发过家家”的人根本不懂什么叫“生产环境”。 他们的论点是:“企业级Java” (Enterprise Java) 运行着全世界银行和大型组织的“业务骨干”。OOP 完美地“镜像了商业实体和自然的层次结构”,而 Python 在“运维就绪”和“集成”方面“还是个婴儿”。 然而,这番“企业级”辩护简直是火上浇油。 反对者(globular-toast, freetonik)立刻群起而攻之:“用银行来当‘把事情搞定’的正面例子,简直是天大的笑话。” 许多大型企业软件“质量极其糟糕”,它们之所以还在用,不是因为 OOP 有多好,纯粹是“历史包袱”。 一位自称“在银行维护Java垃圾代码”的内部人士(m_rpn)更是现身说法:银行用这些,不是因为“选择”,而是因为“偶然”,以及2000年代“OOP咨询顾问”们横行霸道的“遗毒”。 当争论从“Java好不好用”转向“OOP本身”时,全场最精华的一条评论(来自ninetyninenine)出现了。 这位用户发表了一篇堪称“FP宣言”的雄文。他认为,OOP 和 FP 的区别不是语法,而是“哲学上”的: - OOP 的核心是“将行为绑定到可变的状态上”。一个方法属于一个对象,这个对象承载着不断变化的状态。这导致整个程序变成一张“隐藏依赖的网”,牵一发而动全身。最终,“重构不再是创造,而是损害控制。” - FP 的核心则是“切断这条锁链”。它拒绝将行为绑定到可变状态上。函数只依赖输入和输出,使其变得透明、可预测、可移植。“你的代码库不再像一栋联锁的堡垒,而像一箱乐高积木。” 他总结道:OOP 是“把复杂性隐藏在墙后”,而 FP 是“把复杂性分解成足够小、足够透明的部件,以至于复杂性本身变成了可选的。” 当然,也有中间派(GuB-42)指出,问题不在于OOP,而在于我们根本没“真正学懂”它。如果深究底层,方法就是个隐式传递 self 的函数,继承只是组合的一种特例。正如那句禅宗公案(chuckadams 引用)所言:“对象是穷人的闭包”,“闭包是穷人的对象”。 焦点三:真正的“实战课”——从“拒绝Lab”到“软件考古学” 在嘲讽完原作的课程后,社区开始贡献他们自己“血泪中换来的”课程清单。这些课程完美地反映了开发者在现实中真正的“痛”。 1. 模拟真实世界的“恶意” - CSCI 4810: 拒绝实验室 (The Refusal Lab)(由 kelseyfrog 提出):模拟越来越不道德的产品需求和不切实际的Deadline。唯一的及格方式是拒绝,并用专业标准来捍卫你的拒绝。 - CSCI 4812: 职业实验室 (The Career Lab)(由 LPisGood 补充):作为“拒绝Lab”的对照组,这门课让你观看你的同学如何接受那些不道德的需求、过度承诺,然后抢走你的功劳、先一步升职,而你只能在原地收拾残局。 - 管理层 PUA 模拟课(由 epalm 等人提出):当客户(或你的经理)开始疯狂移动“球门”(即改需求)时,你该如何管理自己的反应和项目规格。一位用户(ekidd)分享了 Dartmouth 大学一门课的真实经历:教授总是在项目截止日期前一周(期末考试前)发邮件,“更新”项目规格,以模拟真实世界的混乱。他称之为“一门极其有效的课程”。 2. “数字侦探”与“屎山求生” - 调试 101 (Debugging):这是社区呼声最高的课程之一。许多人(omosubi)抱怨,大学四年没人教过他们“如何调试”,以至于很多高级工程师的调试能力还停留在“到处插 print”。 - 化学实验课式的“代码盲盒”(由 patrickmay 提出):就像化学课上第一天发给你一小瓶“白色粉末”让你去鉴定,CS 课应该第一天发给你一个“塞满了 Bug 和性能问题的遗留代码库”。当你能让所有单元测试和集成测试通过时,这门课就结束了。 - 软件考古学 (Software Archaeology)(由 NBJack 提出):这门课专门教你“数字侦探工作”——如何在拥有大量遗留代码的公司里,通过追踪 bug/tickets、翻阅半死不活的旧 Wiki、分析版本控制历史,来搞清楚“这坨代码到底在干嘛”。 3. 那些本该是“基础”的课 最后,大量评论者指出,许多现代CS毕业生甚至缺乏最基本的“常识”。 - Unix 101:别光学理论,教教学生怎么用 grep, sed, awk 去查日志。 - CI/CD 101:令人震惊的是,几乎没有大学课程会提到 CI/CD、Jenkins、Docker 或 Kubernetes。学生们在真空中编写代码,对“代码如何被部署和运维”一无所知。 CS(科学)与 SE(工程)的巨大鸿沟 这场从2015年延续至今的讨论,最终汇聚到了一个核心问题上:我们一直在混淆“计算机科学 (Computer Science)”和“软件工程 (Software Engineering)”。 正如一位评论者(abdullahkhalids)尖锐指出的,原作中提到的所有“神仙课程”——反OOP、快代码、命令行UX——全都是“工程” (Engineering)、“历史” (History) 或“设计” (Design),没有一个是“科学” (Science)。 这正是 HN 社区怨念的根源:大学的“CS学位”正在培养“科学家”,而业界急需的是“工程师”。 一位资深从业者(jillesvangurp)总结得很好:指望CS学位能让你成为合格的软件工程师,这本身就是一种“误解”。学术界教授大多没有一线的工程背景。一个CS学位真正能证明的,也许只是“你拥有一个能正常运转的大脑”以及“你知道如何学习”。 这场讨论的最终共识是,无论你在学校学了多少算法理论,你真正的“工程教育”,都从你入职后接手的第一个“遗留代码库”和面对的第一个“疯狂改需求的客户”才真正开始。 讨论地址:https://t.co/YaOuTqI0CL
Markdown to plain text Prompt --- Prompt Start --- Convert the following Markdown text into a plain text format suitable for a long tweet or Weibo post. Follow these rules strictly: 1. Preserve the core content. 2. Output *only* plain text. Remove all Markdown syntax (like `*`, `_`, `#`, etc.) except for the blockquote rule below. 3. **Link Handling:** By default, *remove all hyperlinks* (Keep the link text and remove the URL). * **Exception:** Retain links that are critical for context, such as article sources or other links you deem essential for the reader's understanding. * Format these retained links as: `Link Text (https://t.co/bXU5y35HWn)` 4. Add a blank line between headings and paragraphs to ensure readability. 5. Convert Markdown headings (e.g., `## My Heading`) to plain text (e.g., `My Heading`). 6. Format unordered lists as follows: * Level 1: `- List item` * Level 2: ` * Sub-item` (indent with 2 spaces) 7. Format ordered lists by preserving their original numbering or lettering (e.g., `1.`, `a.`, `I.`, `1)`). * Indent nested ordered lists with spaces (e.g., ` 1. Sub-item`). 8. Preserve blockquotes using the `> Quoted text` format. 9. Remove any non-content, metadata, or citation tags (e.g., ``, ``). Start the conversion for the text provided below:
这句话能赚 1000w: 懂哲学➕懂流量,可以扫荡抖音
让 AI 用哲学去研究我的文字,只发了 4 条推文,就把我的文风拆出来了 大家经常说 AI 模仿不了文风,就是差这个 ━━━━━━━━━━━━━━━━━━━━━━ dontbesilent 语言风格解构报告 ## 🔍 一、结构特征 **词汇画像**: - 直白口语化 | 动作指令型 | 二元对立强化 - 高频词:「换」「看」「干」「钱」「对标」 - 专业术语极少,日常动词占主导("干""换""看懂") - 具象词>抽象词(用"数钱"代替"盈利") **句法特征**: - 平均句长:8-12字(极短促) - 句式:祈使句+判断句为主("那就换""就是没看懂") - 大量使用顿号、逗号制造节奏感 - 零从句,拒绝修饰,纯主谓结构 **修辞手法**: - 极简二分法(能/不能、看懂/看不懂) - 反复强调("换对标"出现7次) - 口语化隐喻("把同行当成AI测试") --- ## 🧩 二、深层逻辑 **核心二元对立**: - 行动 vs 思考("能干就执行" vs "讨论业务") - 结果 vs 过程("数钱" vs "成长经历") - 模仿 vs 创新(强调复制而非原创) **隐含预设**: 1. 商业成功=可复制的模式,无关个人特质 2. 认知障碍的唯一解法是"换"而非"学" 3. 实践优先级>理论学习("走流程>看书") **思维模式**: - 决策树式二叉逻辑(if A then B, else C) - 排除法而非建构法 - 极端实用主义(拒绝中间态) --- ## 💬 三、话语权力 **说话者姿态**:9/10(强权威) - 使用大量断言句,零商量余地 - 不提供论证,直接给结论 - 命令式语气("就回去上班") **情感基调**: - 客观度:3/10(高度主观但伪装客观) - 情感强度:8/10(通过简短句式传递急迫感) - 态度:冷峻、不容置疑 **意识形态**: - 反智主义倾向(贬低"看书""学课") - 极端结果导向("利润是唯一标准") - 社会达尔文主义("不能干就上班"暗示失败者淘汰) --- ## 🎭 四、语境规则 **交流场景**: - 创业社群/商业培训场景 - 非正式但权威性强(导师对学员) - 私域流量运营圈层 **功能定位**: - 主要言语行为:**指令+去魅化** - 次要功能:打破认知惯性、制造紧迫感 **文化标记**: - 互联网创业黑话("私域""对标""IP") - 反传统商业教育话语 - Z世代速成文化(拒绝积累,强调捷径) --- ## 🎯 五、风格基因提取 **该文本的"风格DNA"**: 这是一种**极简主义行动指令体**,通过: 1. **超短句+祈使句**制造不容置疑的权威感 2. **二元对立+排除法**消解思考空间,强制决策 3. **口语化+去修饰**营造"内行人直球输出"的真实感 4. **反复锤击核心动词**(换/干/看)形成洗脑式记忆点 5. **拒绝抽象概念**,一切用动作和结果说话 核心特征:**"教官式冷幽默" + "算法式决策树" + "去魅化商业鸡汤"**
会用 AI、会写文案,是表层 能把话说清楚,是中层 能把事儿想清楚,是底层 很多人想在不能把话说清楚的情况下用好 AI 想在不能把事儿想清楚的情况下写好文案 这就好比爱因斯坦在仅有 30 页的论文中提出了狭义相对论 然后有人说:哇,你好会写,可以教我写这样的文章吗
不记得在哪里看到过一句话 说你应该给自己设定一个很高的时薪,低于这个时薪的事情都不要做 这样就能过滤掉很多无效的事情 这个理念和后来挺火的《10x is easier than 2x》不谋而合 如果你找到了一件能实现 10 倍目标的事情,那么所有只能帮你达成 2 倍目标的事情就都是错的 这个概念对时间成本很高的人来说没什么用,当你的时间很值钱,你很容易意识到这一点 最应该相信这件事的其实是那些从 0 到 1 还没有积累起资产的人 可偏偏这批人也是最不愿意相信这一点的人,他们总觉得应该先解决眼前的问题,which is 缘木求鱼
中国顾客 去美国山姆 用欧盟标准 买中国牛奶 https://t.co/zUtC9ZIjyA
让 ChatGPT 生成封面图的提示词,可以做成 ChatGPT Project,使用时粘贴你写的文章即可 ---提示词开始---- 请根据输入的内容,提取核心要点,生成适合文章的封面图,要求: - 信息图,横版(16:9) - 文字只写到1级标题,默认使用英文 - 加上丰富可爱的卡通人物和元素。 https://t.co/UHpPX6SDQG
转译:像外科医生一样写代码 很多人都说,AI 会让我们统统变成“经理”或者“编辑”……但我认为,这种看法不仅不完整,甚至还有点危险! 就我个人而言,我正努力像外科医生一样写代码。 外科医生可不是经理,他们是亲自动手干活的人!但他们的技术和时间被一个支持团队极大地放大了。这个团队会处理好所有准备工作、次要任务和行政杂务。这样一来,外科医生就能心无旁骛地专注于他们最擅长的关键事务。 我现在用 AI 编程工具的目标,就是把 100% 的时间都花在真正重要的事情上。(作为一名 UI 原型设计师 (UI prototyper,也就是设计和制作产品初步模型的人),这主要意味着捣鼓各种设计概念。) 事实证明,现在有很多次要任务,AI 智能体 (AI agents) 已经完全有能力帮忙处理了。最近我发现,把下面这些活儿交给 AI 就挺好: - 在开始一项大任务前,先让它写一份关于代码库相关部分的指南。 - 尝试对一个大改动进行“探路” (Spike out,软件开发术语,指快速做一个简单的原型来探索解决方案的可行性)。我经常不会直接用它的结果,但我会把它当作一个草图,帮我看清方向。 - 修复那些有明确要求的 Typescript 错误或 bug。 - 给我正在构建的功能写文档。 我经常发现,让这些次要任务在后台“异步” (async,指任务在后台运行,不会卡住你当前的工作) 跑着非常有用——比如我吃午饭的时候,甚至干脆让它跑上一整夜! 当我坐下来准备开工时,我希望自己就像一个走进准备就绪的手术室的外科医生。一切都已准备停当,就等我来大显身手了。 值得注意的是,我用 AI 处理“主要任务”和“次要任务”的方式,有着天壤之别。 对于核心的设计原型工作,我仍然会大量手写代码。即便用 AI,我也会非常小心,抠很多细节。我需要快速的反馈循环和良好的可见性。(比如,在这种场景下我就很喜欢 Cursor 的 tab 键自动补全功能) 至于次要任务,我的态度就放松多了,我很乐意让一个 AI 智能体在后台“折腾”好几个小时。最终能把活儿干完才是最重要的;至于速度和可见性,就没那么要紧了。过去我处理这种长时间无人值守的任务时,首选是 Claude Code,但 Codex CLI (一个通过命令行使用 AI 编码的工具) 正在成为一个强有力的竞争者,甚至可能成为我的新宠。 这两种工作模式截然不同!这让我想起了 Andrej Karpathy (AI 领域的大牛,特斯拉前 AI 总监) 提出的 “自主性滑块” 概念。把“自主性光谱”的不同部分混为一谈是危险的 —— 它们各自所需的工具和心态,差别真的非常大。 你的智能体不需要职业规划 “软件外科医生”这个概念其实很早就有了——弗雷德·布鲁克斯 (Fred Brooks) 在他 1975 年的经典著作《人月神话》(The Mythical Man-Month) 中,将其归功于哈兰·米尔斯 (Harlan Mills)。他提到一个“首席程序员”应该由包括“副驾驶”(copilot) 和多名管理员在内的各种员工提供支持。当然,在那个年代,这个想法是让真人来扮演这些支持角色。 好了,这里有一个显而易见的观点:“AI 现在让这种方法在经济上变得可行了”,没错没错……但是,我 也注意到一个更微妙的东西在起作用,这和“地位等级”有关。 很多“次要”任务都是“苦差事” (grunt work,指繁琐、重复、技术含量不高的体力活或脑力活),并不是工作中最有成就感或最具创造性的部分。我个人非常推崇那种“人人分担苦差事”的团队;我讨厌把所有脏活累活都丢给团队里地位较低的成员。没错,初级成员(junior)通常会干更多的杂活,但他们也应该得到很多有趣的任务来帮助自己成长。 有了 AI,这种顾虑就完全消失了!现在我可以毫无心理负担地把纯粹的苦差事派出去。 而且 AI 7x24 小时随时待命,这一点太重要了。我绝不会在晚上 11 点打电话给一个人类实习生,叫他早上 7 点前准备好一份代码研究报告……但现在,我正指挥我的 AI 智能体这么干! Notion 也是为“外科医生”准备的? 最后,我想聊聊这种工作方式和我的东家 Notion 有什么关系。 首先,作为一名员工,我发现能在这样一个对 AI 编程工具持“牛市”态度 (bullish,金融术语,指非常看好、积极乐观) 的地方工作,价值真的无可估量。公司支持我大量使用 AI 编程工具,而且代码库也为此做好了准备,这让我的生产力猛增——尤其是对于我这样一个刚接触大型代码库的新人来说。 其次,从产品角度来说——某种意义上,我想说我们正试图将这种工作方式带给程序员之外更广泛的知识工作者。当我想象这一切将如何展开时,我很喜欢这个心智模型:让每个人都能“像外科医生一样工作”。 我们的目标不是让你把核心工作外包出去,而是识别并委派那些次要的苦差事,这样你就能专注于真正重要的大事。 如果你喜欢这个视角,也许你会想读读我写的其他几篇关于人机协作本质的文章: - AI 副驾驶够多了!我们需要的是 AI 抬头显示器 (HUD):“任何严肃对待 AI 设计的人,都应该考虑‘副驾驶’之外的其他形态,那些能更直接地扩展人类思维的形态……” - AI 生成的工具能让编程更有趣:“我没有(让 AI 写代码),而是用 AI 构建了一个自定义的调试器界面……这让我自己写代码变得更有趣了……” - 把 ChatGPT 当作灵感缪斯,而非万能神谕:“如果我们不把大语言模型 (LLM) 看作回答问题的工具,而是把它看作向我们提问、激发我们创造力的工具,会怎么样?” 来源: https://t.co/kWOtoV4DpV
Netflix 也正式下场搞生成式 AI 了。 但他们没想着靠 AI 一键生成大片,他们的落地路径是很清醒地把它当成幕后工具用,比如视觉特效,场景搭建和角色处理上。 创作者仍然是核心。这思路我觉得比 AI 写剧本拍整片靠谱多了。 这背后其实是 Netflix 选择了一条风险更小、效率更高、且能最大程度说服创作者的路径,这条路径上创作者不被边缘化。 而且 Netflix 很诚实地说:你要是讲不好故事,AI 也帮不了你。 这才是正道啊。 跟很多行业一样,AI 落地的难点更多的时候是在怎么用,用到什么程度才能让干系人安心。 Netflix 给的答案就是那种: 我用,但我不抢你饭碗。 这种思路,反而最容易把 AI 真正融进系统里。 📎 原文:https://t.co/ey7qEEWCrb
完蛋写了一版没写完发出去了, 本来打算复制删了重写 结果发现没复制成功,气死我了,又要手打。 1. 光其实是调控节律最核心的事情,我老板当年要给小鼠取血测血糖。本来血糖就是一个非常明显昼夜节律改变的一个指标。但是他当年在UC Irvine做这个实验做了非常久都没有重复出来。后来才发现是因为他们采血的时候会把老鼠放在有光的地方,影响了小鼠。 所以,其实只要有光,你的节律就会变化。 2. 你闭上眼睛不就感受不到光了吗?并不是,即使你闭上眼睛,你的视交叉上核(SCN)一样会知道你处于很亮的地方,你的节律还是乱的,一定要关灯睡觉!对于新生儿,新生的婴儿更是这样。我们家很长一段时间晚上八点以后是没有灯的。 3. 午睡能救你吗?救不了一点。东亚人午睡很重要的原因是我们会经常摄入碳水。升糖太快了,所以你中午总会困。只要你轻断食,不吃午饭,或者摄入以蛋白质为主的饮食,基本上是不太需要午睡的。 4. 我自己的经验来讲,不玩手机,秒睡。要哄小孩睡觉,自己睡得比小孩还快。哈哈。
有意思的小更新。 Google AI Studio 现在支持自动切换 API key:免费额度用完自动接上自己的 key,额度一恢复又能切回,全程不中断。 听着像是个省事功能,但其实是把 AI Studio 从玩玩变成了能长期写活儿的轻 IDE,而且用户基本是在不知不觉中,就把使用时间延长了。 Google 的小心思都藏在里面了,就是要把开发节奏和人都一起留在自家系统里。 到了这个节点,谁能留住 vibe coding,谁就赢下了生态里的开发者争夺战。

dontbesilent
分享我的关评 SOP: B 站、视频号:永不开放评论 推特:3w 曝光后关闭评论 抖音:10w 播放后关闭评论 小红书不需要关闭评论,但保持一言不合就拉黑状态 “不合”指的不是不合道理,是不合心情 我的短视频是单向传播,不是双向互动,这是最基本的认知 至于关评会不会影响流量 流量大不会让我开心,但傻子多会让我抑郁
Est. 500 views for your reply
